JP2018000779A - Ultrasonic image processing device - Google Patents
Ultrasonic image processing device Download PDFInfo
- Publication number
- JP2018000779A JP2018000779A JP2016135187A JP2016135187A JP2018000779A JP 2018000779 A JP2018000779 A JP 2018000779A JP 2016135187 A JP2016135187 A JP 2016135187A JP 2016135187 A JP2016135187 A JP 2016135187A JP 2018000779 A JP2018000779 A JP 2018000779A
- Authority
- JP
- Japan
- Prior art keywords
- depth
- color
- image
- function
- guide image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
【課題】超音波画像処理装置において、深さに応じた色付け条件を定める関数に従ってカラー三次元画像を生成する場合に、ユーザーにおいて、関数が作用する深さを認識できなかった。【解決手段】カラー三次元画像108と共に表示される断層画像106上にガイド像112が表示される。ガイド像112が有する深さ軸と断層画像106が有する深さ軸とが平行になるように、ガイド像112が表示される。ガイド像112は深さ方向に運動するマーカー120を有する。マーカー120は関数が規定する深さ方向の混色範囲における中間深さを表す。ガイド像112が複数のマーカーやカラー見本を有していてもよい。【選択図】図11In an ultrasonic image processing apparatus, when a color three-dimensional image is generated according to a function that determines coloring conditions according to depth, a user cannot recognize the depth at which the function acts. A guide image is displayed on a tomographic image displayed together with a color three-dimensional image. The guide image 112 is displayed so that the depth axis of the guide image 112 and the depth axis of the tomographic image 106 are parallel to each other. The guide image 112 has a marker 120 that moves in the depth direction. The marker 120 represents an intermediate depth in the color mixture range in the depth direction defined by the function. The guide image 112 may have a plurality of markers and color samples. [Selection] Figure 11
Description
本発明は超音波画像処理装置に関し、特に、超音波ボリュームデータに基づいてカラー三次元画像を形成する装置に関する。 The present invention relates to an ultrasonic image processing apparatus, and more particularly to an apparatus for forming a color three-dimensional image based on ultrasonic volume data.
超音波画像処理装置として、超音波診断装置や、超音波診断装置で取得された超音波ボリュームデータ(以下、単に「ボリュームデータ」という。)を処理する情報処理装置があげられる。超音波画像処理装置においては、ボリュームデータに対してボリュームレンダリングを適用することにより、三次元超音波画像(対象組織を三次元表現した画像)が形成される。 Examples of the ultrasonic image processing apparatus include an ultrasonic diagnostic apparatus and an information processing apparatus that processes ultrasonic volume data (hereinafter simply referred to as “volume data”) acquired by the ultrasonic diagnostic apparatus. In the ultrasonic image processing apparatus, volume rendering is applied to volume data to form a three-dimensional ultrasonic image (an image representing a target tissue three-dimensionally).
ボリュームレンダリングの実行に際しては、ボリュームデータに対して、視点から出る複数のレイ(視線)が設定される。個々のレイごとに、つまりカラー三次元画像を構成する個々の画素ごとに、レンダリング演算が実行されて画素値が求められる。より詳しくは、開始点から奥行き方向に沿って、ボクセル単位で、オパシティ(不透明度)を利用した出力光量演算(ボクセル演算)が繰り返し実行される。所定の終了条件が満たされた時点での出力光量つまり演算終了点での出力光量が画素値(輝度)を構成する。所定の終了条件としては、オパシティ累積値が1又はそれに近い所定値に到達したことを内容とする第1の終了条件、レイ上の最後のサンプル点まで出力光量演算が到達したことを内容とする第2の終了条件、等が知られている。オパシティ累積値は、一般に、出力光量演算ごとにそこで利用されたオパシティを順次加算することによって求められるものである。出力光量演算式としては各種の式が知られている。複数のレイについて求められた複数の輝度は輝度マップとして観念され、それが三次元超音波画像を構成する。 When performing volume rendering, a plurality of rays (line of sight) from the viewpoint are set for the volume data. For each individual ray, that is, for each pixel constituting the color three-dimensional image, a rendering operation is executed to obtain a pixel value. More specifically, the output light amount calculation (voxel calculation) using the opacity (opacity) is repeatedly executed for each voxel along the depth direction from the start point. The output light amount when a predetermined end condition is satisfied, that is, the output light amount at the calculation end point constitutes a pixel value (luminance). The predetermined end condition includes a first end condition that indicates that the accumulated opacity has reached a predetermined value close to 1 or that the output light quantity calculation has reached the last sample point on the ray. The second end condition, etc. are known. The accumulated opacity value is generally obtained by sequentially adding the opacity used for each output light amount calculation. Various formulas are known as output light quantity calculation formulas. A plurality of luminances obtained for a plurality of rays are considered as a luminance map, which constitutes a three-dimensional ultrasonic image.
上記のような一般的なボリュームレンダリング法とは異なる特別なボリュームレンダリング法として、輝度マップと共に深さマップ(距離マップ)を生成し、それらのマップに基づいてカラー三次元画像を形成するボリュームレンダリング法が知られている。その方法では、レイ単位でのレンダリング演算に際し、終了点での出力光量(輝度)と、終了点の深さと、が特定される。これによって、複数のレイに対応する複数の輝度からなる輝度マップと、複数のレイに対応する複数の深さからなる深さマップ(距離マップ)と、が生成される。深さマップは、典型的には、対象組織の三次元形態を表す。例えば、終了点の深さに応じてカラー(例えばRGB値の組み合わせ)を変化させることにより、カラー三次元画像上において奥行き感を増大させることが可能である。 A volume rendering method that generates a depth map (distance map) together with a luminance map and forms a color three-dimensional image based on these maps as a special volume rendering method that is different from the general volume rendering method described above. It has been known. In this method, the output light amount (luminance) at the end point and the depth of the end point are specified in the rendering operation in units of rays. Thereby, a luminance map composed of a plurality of luminances corresponding to a plurality of rays and a depth map (distance map) composed of a plurality of depths corresponding to the plurality of rays are generated. The depth map typically represents the three-dimensional morphology of the target tissue. For example, it is possible to increase the sense of depth on a color three-dimensional image by changing the color (for example, a combination of RGB values) according to the depth of the end point.
特許文献1、2は、三次元超音波画像の形成に際して、終了点の深さに応じた色付けを提案するものである。特許文献3には、ボリュームデータに対して設定される三次元関心領域が示されている。その関心領域はクリッピング面としてのレンダリング開始面(以下「開始面」と称する。)を有する。その開始面は変形可能な面である(更に高さ方向への並行移動や傾斜運動も可能な面である)。例えば、胎児と子宮壁(胎盤を含む)との間の隙間の形状に合わせて開始面を変形させれば、子宮壁を画像化対象から除外しつつ、胎児だけをレンダリング対象とすることが可能である。 Patent Documents 1 and 2 propose coloring according to the depth of the end point when forming a three-dimensional ultrasonic image. Patent Literature 3 shows a three-dimensional region of interest set for volume data. The region of interest has a rendering start surface (hereinafter referred to as a “start surface”) as a clipping surface. The starting surface is a deformable surface (in addition, a surface capable of parallel movement and tilting in the height direction). For example, if the starting surface is deformed according to the shape of the gap between the fetus and the uterine wall (including the placenta), only the fetus can be rendered while excluding the uterine wall from the imaging target. It is.
上記のように、輝度マップ及び深さマップに基づくカラー三次元画像の生成に際しては、一般に、輝度に基づいて決定されたメインカラー及びサブカラーの混合割合を終了点の深さに応じて変化させる「関数」が利用される。その関数は、混色関数、重み付け合成関数又はブレンド関数として機能するものである。その他の関数が利用されることもある。 As described above, when generating a color three-dimensional image based on the luminance map and the depth map, generally, the mixing ratio of the main color and the sub color determined based on the luminance is changed according to the depth of the end point. A “function” is used. The function functions as a color mixing function, a weighting composition function, or a blend function. Other functions may be used.
しかしながら、色付け結果であるカラー三次元画像を観察しても、関数それ自体の内容や作用をユーザーにおいて認識し難いという問題がある。また、関数に含まれる1又は複数のパラメータを調整する際にその調整を支援することが望まれる。 However, there is a problem that even if a color three-dimensional image as a coloring result is observed, it is difficult for the user to recognize the contents and actions of the function itself. It is also desirable to support the adjustment when adjusting one or more parameters included in the function.
本発明の目的は、深さに応じて変化する色付け条件を定める関数に従ってカラー三次元画像を生成する場合に、カラー三次元画像を観察しているユーザーにおいて、当該関数の内容又は作用を認識できるようにすることにある。あるいは、本発明の目的は、上記関数に含まれるパラメータをユーザーが調整する場合にその作業を支援することにある。 The object of the present invention is to recognize the content or action of a function in a user observing a color 3D image when generating a color 3D image according to a function that defines coloring conditions that change according to depth. There is in doing so. Alternatively, an object of the present invention is to support the work when a user adjusts parameters included in the function.
本発明に係る超音波画像処理装置は、生体内の三次元空間から取得されたボリュームデータに対してボリュームレンダリングを適用する手段であって、前記ボリュームレンダリングの結果として輝度マップ及び深さマップを生成するレンダリング手段と、深さに応じた色付け条件を定める関数に従って、前記輝度マップ及び前記深さマップからカラー三次元画像を生成するカラー処理手段と、前記関数の内容又は作用を表す像として第1の深さ軸を有するガイド像を生成するガイド像生成手段と、を含むことを特徴とする。 The ultrasonic image processing apparatus according to the present invention is a means for applying volume rendering to volume data acquired from a three-dimensional space in a living body, and generates a luminance map and a depth map as a result of the volume rendering. A color processing means for generating a color three-dimensional image from the luminance map and the depth map according to a function for determining a coloring condition according to depth, and a first image representing the content or action of the function. And a guide image generating means for generating a guide image having a depth axis.
上記構成によれば、カラー三次元画像と共に、関数を象徴するガイド像が表示される。ガイド像は第1の深さ軸を有し、第1の深さ軸上に、例えば、深さマーカーとして、又は、色変化見本として、関数の内容又は作用が表される。ガイド像の観察を通じて、カラー三次元画像を生成する際に適用された色付け条件に関する情報を得られる。ガイド像において、関数の内容又は作用の一部又は一面だけが表されてもよい。関数が作用する深さ又は深さに応じた関数作用の変化をおよそ認識できるように、あるいは、カラー三次元画像の生成に際して適用された色付け条件を把握するのに役立つ情報が得られるように、ガイド像を生成するのが望ましい。関数を設定する際に、その設定内容がリアルタイムにガイド像に反映されれば、関数設定作業を支援できる。 According to the above configuration, the guide image symbolizing the function is displayed together with the color three-dimensional image. The guide image has a first depth axis, and the content or function of the function is represented on the first depth axis, for example, as a depth marker or as a color change sample. Through observation of the guide image, information on the coloring condition applied when generating the color three-dimensional image can be obtained. In the guide image, only a part or one side of the content or function of the function may be represented. In order to be able to recognize the depth at which the function acts or the change in the function action depending on the depth, or to obtain information useful for grasping the coloring conditions applied when generating the color 3D image, It is desirable to generate a guide image. When setting the function, if the setting contents are reflected in the guide image in real time, the function setting work can be supported.
ボリュームレンダリング法としては各種の方法を利用することが可能である。但し、通常のボリュームレンダリング法では輝度マップしか生成されないため、輝度マップと共に深さマップ(距離マップ)が生成されるように、公知のボリュームレンダリング法を修正又は拡張して利用するのが望ましい。望ましくは、対象組織は子宮内の胎児であり、特に望ましくは、胎児の顔面である。 Various methods can be used as the volume rendering method. However, since the normal volume rendering method generates only a luminance map, it is desirable to modify or expand the known volume rendering method so that a depth map (distance map) is generated together with the luminance map. Desirably, the target tissue is a fetus in the uterus, particularly desirably the fetal face.
望ましくは、前記ボリュームデータに基づいて、第2の深さ軸を有する断層画像を形成する断層画像形成手段を含み、前記第1の深さ軸と前記第2の深さ軸が平行になるように前記ガイド像が表示される。この構成によれば、断層画像中の対象組織の深さと、関数が作用する深さと、対比することが可能となる。例えば、色付けの基準となる深さを、もっと小さく(手前側、視点側)にすべきか、あるいは、もっと大きく(奥側、非視点側)にすべきか、を容易に判断することが可能である。断層画像は三次元空間の断面を表す画像であり、ボリュームデータに対して設定される二次元レイアレイ中のレイ列に相当する画像である。 Preferably, a tomographic image forming unit that forms a tomographic image having a second depth axis based on the volume data, the first depth axis and the second depth axis being parallel to each other. The guide image is displayed on the screen. According to this configuration, the depth of the target tissue in the tomographic image can be compared with the depth at which the function acts. For example, it is possible to easily determine whether the depth used as a reference for coloring should be smaller (front side, viewpoint side) or larger (back side, non-viewpoint side). . A tomographic image is an image representing a cross section of a three-dimensional space, and is an image corresponding to a ray row in a two-dimensional ray array set for volume data.
望ましくは、前記関数に含まれる深さパラメータの変化に応じて前記ガイド像の表示態様が変化する。この構成によれば、ガイド像の表示態様の変化を観察しながら、手動で深さパラメータを最適化することが可能である。自動的にパラメータが決定される構成では、パラメータ変化をガイド像の表示態様の変化として認識できる。 Desirably, the display mode of the guide image changes according to the change of the depth parameter included in the function. According to this configuration, it is possible to manually optimize the depth parameter while observing a change in the display mode of the guide image. In the configuration in which the parameter is automatically determined, the parameter change can be recognized as a change in the display mode of the guide image.
望ましくは、前記関数によって深さ方向の混色範囲が規定され、前記ガイド像は前記混色範囲の深さを表す深さマーカーを有し、前記深さパラメータの変化に応じて前記深さマーカーが深さ方向に運動する。深さマーカーは深さ軸方向に運動するインジケータである。望ましくは、混色範囲についての開始深さ、中間深さ、終了深さ、又は、その他の深さが深さマーカーによって表現される。望ましくは、前記深さマーカーは前記混色範囲における中間深さを表す。混色割合が1:1となる深さを深さマーカーによって表示してもよいし、他の特定の深さを深さマーカーによって表示してもよい。 Preferably, a color mixing range in the depth direction is defined by the function, the guide image has a depth marker that represents the depth of the color mixing range, and the depth marker is changed according to a change in the depth parameter. Move in the right direction. The depth marker is an indicator that moves in the depth axis direction. Preferably, the start depth, intermediate depth, end depth, or other depth for the color mixture range is represented by a depth marker. Preferably, the depth marker represents an intermediate depth in the color mixture range. The depth at which the color mixture ratio is 1: 1 may be displayed by a depth marker, or another specific depth may be displayed by a depth marker.
望ましくは、前記ガイド像は第1の深さマーカー及び第2の深さマーカーを有し、前記第1の深さマーカー及び前記第2の深さマーカーは前記混色範囲の開始深さ及び終了深さを表す。この構成によれば、深さ方向の混色範囲を深さ軸上で具体的に特定することが可能となる。特に、上記構成によれば、混色範囲の深さ及び大きさを同時に認識できる。 Preferably, the guide image includes a first depth marker and a second depth marker, and the first depth marker and the second depth marker are a start depth and an end depth of the color mixture range. Represents According to this configuration, the color mixing range in the depth direction can be specifically specified on the depth axis. In particular, according to the above configuration, the depth and size of the color mixture range can be recognized simultaneously.
望ましくは、前記ガイド像は前記関数に与えられるメインカラー及びサブカラーを表す2つのカラー見本を有し、前記2つのカラー見本は深さ方向に並んで表示される。この構成によれば、混合前の2つの元カラーを認識できる。望ましくは、画素の輝度に応じてメインカラーのRGB値及びサブカラーのRGB値が定まり、それらが画素に対応する深さに従う混合割合で合成される。2つのカラー見本の間の境界線によって混色が生じる深さ範囲が表現されてもよい。境界線を斜線として構成し、その斜線により当該範囲が表現されてもよい。望ましくは、前記関数に含まれる深さパラメータに応じて前記2つのカラー見本の間の境界線が深さ方向に運動する。望ましくは、前記関数に含まれる範囲パラメータに応じて前記境界線の傾斜角度(深さ軸に対する角度)が変化する。 Preferably, the guide image has two color samples representing a main color and a sub color given to the function, and the two color samples are displayed side by side in the depth direction. According to this configuration, two original colors before mixing can be recognized. Desirably, the RGB value of the main color and the RGB value of the sub-color are determined according to the luminance of the pixel, and they are combined at a mixing ratio according to the depth corresponding to the pixel. A depth range in which color mixing occurs may be expressed by a boundary line between two color samples. The boundary line may be configured as a diagonal line, and the range may be expressed by the diagonal line. Preferably, a boundary line between the two color samples moves in the depth direction according to a depth parameter included in the function. Preferably, the inclination angle of the boundary line (an angle with respect to the depth axis) changes according to a range parameter included in the function.
望ましくは、前記ガイド像は前記関数によって生じる深さ方向のカラー変化を示すカラー変化見本を有する。この構成によれば、関数の作用をカラー変化(グラデ―ション)として具体的に認識することが可能である。 Preferably, the guide image has a color change sample indicating a color change in the depth direction caused by the function. According to this configuration, it is possible to specifically recognize the function action as a color change (gradation).
望ましくは、前記カラー処理手段は、前記カラー三次元画像を構成する画素ごとに、当該画素に対応する輝度の大きさに基づいてメインカラーを決定する手段と、前記カラー三次元画像を構成する画素ごとに、当該画素に対応する輝度の大きさに基づいてサブカラーを決定する手段と、前記カラー三次元画像を構成する画素ごとに、当該画素に対応する深さを前記関数に与えることにより決定される混合割合に従って前記メインカラーと前記サブカラーとを混合することにより当該画素に対応するカラーを決定する手段と、を含む。 Preferably, the color processing means includes, for each pixel constituting the color three-dimensional image, means for determining a main color based on a luminance level corresponding to the pixel, and pixels constituting the color three-dimensional image. For each pixel, the sub-color is determined based on the magnitude of the luminance corresponding to the pixel, and for each pixel constituting the color three-dimensional image, the depth corresponding to the pixel is determined by giving the function Means for determining the color corresponding to the pixel by mixing the main color and the sub color according to the mixing ratio.
本発明に係る超音波画像処理方法は、生体内の三次元空間から取得されたボリュームデータに対してボリュームレンダリングを適用する工程であって、前記ボリュームレンダリングの結果として輝度マップ及び深さマップを生成する工程と、深さに応じた色付け条件を定める関数に従って、前記輝度マップ及び前記深さマップからカラー三次元画像を生成する工程と、前記関数の内容又は作用を表す像としてガイド像を生成する工程と、前記カラー三次元画像と共に前記ガイド像を表示する工程と、を含む。 An ultrasonic image processing method according to the present invention is a step of applying volume rendering to volume data acquired from a three-dimensional space in a living body, and generates a luminance map and a depth map as a result of the volume rendering. A step of generating a color three-dimensional image from the luminance map and the depth map according to a function for determining a coloring condition according to a depth, and generating a guide image as an image representing the content or action of the function And a step of displaying the guide image together with the color three-dimensional image.
上記の超音波画像処理方法はプロセッサ上で動作するプログラムとして実現され得る。そのプログラムは、ネットワークを介して又は記憶媒体を介して、超音波画像処理装置へインストールされる。 The ultrasonic image processing method described above can be realized as a program operating on a processor. The program is installed in the ultrasonic image processing apparatus via a network or a storage medium.
本発明によれば、ユーザーにおいて関数の内容又は作用を認識することが可能となる。よって、カラー三次元画像の観察上の便宜を図ることができ、また、関数の設定作業を支援することができる。 According to the present invention, it is possible for a user to recognize the content or action of a function. Accordingly, it is possible to facilitate the observation of the color three-dimensional image and to support the function setting operation.
以下、本発明の好適な実施形態を図面に基づいて説明する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings.
(1)装置構成
図1には、本発明に係る超音波画像処理装置の好適な実施形態が示されている。この超音波画像処理装置は、本実施形態において超音波診断装置である。超音波画像処理装置が、画像処理を実行する情報処理装置(コンピュータ)によって構成されてもよい。その場合、超音波診断装置で取得されたボリュームデータが情報処理装置へ渡される。
(1) Apparatus Configuration FIG. 1 shows a preferred embodiment of an ultrasonic image processing apparatus according to the present invention. This ultrasonic image processing apparatus is an ultrasonic diagnostic apparatus in the present embodiment. The ultrasonic image processing apparatus may be configured by an information processing apparatus (computer) that performs image processing. In that case, the volume data acquired by the ultrasonic diagnostic apparatus is passed to the information processing apparatus.
図1に示す超音波診断装置は医療機関に設置され、生体に対する超音波の送受波により超音波画像を形成する装置である。本実施形態においては、以下に詳述するように、超音波画像として、カラー三次元画像が生成されている。それは、例えば、子宮内の胎児の三次元形態を輝度及び色相の変化によって立体的に表現した画像である。 The ultrasonic diagnostic apparatus shown in FIG. 1 is an apparatus that is installed in a medical institution and forms an ultrasonic image by transmitting / receiving ultrasonic waves to / from a living body. In the present embodiment, as described in detail below, a color three-dimensional image is generated as an ultrasonic image. For example, the image is a three-dimensional representation of the three-dimensional form of the fetus in the uterus by changes in brightness and hue.
図1において、3Dプローブ10は、生体内の三次元空間に対して超音波の送受波を行うことによりボリュームデータを取得する送受波器である。3Dプローブ10は、例えば、2Dアレイ振動子を有する。2Dアレイ振動子は二次元配列された複数の振動素子からなるものである。2Dアレイ振動子によれば、超音波ビームを電子的に二次元走査することが可能である。電子走査方式としては、電子セクタ走査方式等が知られている。1Dアレイ振動子を機械的に走査することによってボリュームデータを取得してもよい。一般に、1つのボリュームデータは複数の走査面データ(フレームデータ)により構成され、各走査面データは複数のビームデータにより構成される。各ビームデータは深さ方向に並ぶ複数のエコーデータにより構成される。 In FIG. 1, a 3D probe 10 is a transducer that acquires volume data by transmitting and receiving ultrasonic waves to and from a three-dimensional space in a living body. The 3D probe 10 includes, for example, a 2D array transducer. The 2D array transducer is composed of a plurality of vibration elements arranged two-dimensionally. According to the 2D array transducer, it is possible to electronically scan an ultrasonic beam two-dimensionally. As an electronic scanning method, an electronic sector scanning method or the like is known. Volume data may be obtained by mechanically scanning the 1D array transducer. In general, one volume data is constituted by a plurality of scanning plane data (frame data), and each scanning plane data is constituted by a plurality of beam data. Each beam data is composed of a plurality of echo data arranged in the depth direction.
送受信部12は電子回路であり、それは送信ビームフォーマー及び受信ビームフォーマーとして機能する。すなわち、送信時において、送受信部12から3Dプローブ10へ複数の送信信号が供給され、これにより送信ビームが形成される。受信時において、生体内からの反射波が3Dプローブ10によって受波されると、3Dプローブ10から複数の受信信号が送受信部12へ出力される。送受信部12では複数の受信信号を整相加算し、これにより受信ビームに相当するビームデータを生成する。 The transceiver unit 12 is an electronic circuit, which functions as a transmission beam former and a reception beam former. That is, at the time of transmission, a plurality of transmission signals are supplied from the transmission / reception unit 12 to the 3D probe 10, thereby forming a transmission beam. At the time of reception, when a reflected wave from the living body is received by the 3D probe 10, a plurality of reception signals are output from the 3D probe 10 to the transmission / reception unit 12. The transmission / reception unit 12 performs phasing addition of a plurality of reception signals, thereby generating beam data corresponding to the reception beam.
送受信部12からビームデータ処理部14へ複数のビームデータが順次出力される。ビームデータ処理部14は、検波器、対数変換器等を備える電子回路である。そこで処理された各ビームデータが座標変換部16へ送られる。 A plurality of beam data are sequentially output from the transmission / reception unit 12 to the beam data processing unit 14. The beam data processing unit 14 is an electronic circuit including a detector, a logarithmic converter, and the like. The processed beam data is sent to the coordinate conversion unit 16.
座標変換部16は、座標変換機能、補間機能、等を有する電子回路である。座標変換部16は、各ビームデータを構成する個々のエコーデータを三次元記憶空間にマッピングする処理を実行する。実際には、三次元座標ごとに補間データを生成しそれをマッピングしている。走査面に対応するフレームデータ単位で座標変換を実行し、それを繰り返すことによりボリュームデータを生成するようにしてもよい。その場合には二次元スキャンコンバータが利用される。いずれにしても、本実施形態においては、座標変換部16が有するメモリ18内にボリュームデータが格納される。なお、そのようなボリュームデータから切り出される面データに基づいて二次元断層画像(Bモード画像)が形成される。この場合、面データは、後述するレイ群中の特定のレイ列に相当する。この場合、面データは深さ軸を有する。 The coordinate conversion unit 16 is an electronic circuit having a coordinate conversion function, an interpolation function, and the like. The coordinate conversion unit 16 executes a process for mapping individual echo data constituting each beam data to the three-dimensional storage space. In practice, interpolation data is generated and mapped for each three-dimensional coordinate. Volume data may be generated by executing coordinate transformation in units of frame data corresponding to the scanning plane and repeating the transformation. In that case, a two-dimensional scan converter is used. In any case, in this embodiment, volume data is stored in the memory 18 included in the coordinate conversion unit 16. A two-dimensional tomographic image (B-mode image) is formed based on the plane data cut out from such volume data. In this case, the plane data corresponds to a specific ray row in a ray group described later. In this case, the plane data has a depth axis.
ボリュームレンダリング部20は、三次元関心領域設定手段、レンダリング手段、等として機能する。それは電子回路又はソフトウエア機能として実現される。三次元関心領域(3D-ROI)は、ボリュームデータの中で画像化したい部分を切り出すための領域であり、逆に言えば、画像化したくない部分を除外した領域である。三次元関心領域の形態や位置が自動的に又はユーザー入力により定められる。例えば、子宮内の胎児の三次元画像を形成したい場合、胎児と子宮壁(胎盤)との間の隙間(羊水中)に、クリッピング面としての開始面が設定されるように、三次元関心領域が設定される。その場合において、視点に対してボリュームデータを相対的に回転させれば、それに伴って三次元関心領域に対してボリュームデータが相対的に回転する。クリッピング面つまり開始面は、デフォルト状態では平面であるが、上記特許文献3に記載されているように、それは例えば凸面又は凹面に変形可能な面である。更に、その高さ、傾きを変更することも可能である。 The volume rendering unit 20 functions as a three-dimensional region-of-interest setting unit, a rendering unit, and the like. It is implemented as an electronic circuit or software function. The three-dimensional region of interest (3D-ROI) is a region for cutting out a portion to be imaged in the volume data, and conversely, a region excluding a portion that is not desired to be imaged. The form and position of the three-dimensional region of interest are determined automatically or by user input. For example, if you want to form a 3D image of the fetus in the uterus, the 3D region of interest is set so that the starting plane is set as the clipping plane in the gap (amniotic fluid) between the fetus and the uterine wall (placenta). Is set. In this case, if the volume data is rotated relative to the viewpoint, the volume data is rotated relative to the three-dimensional region of interest accordingly. The clipping plane, that is, the starting plane is a plane in the default state, but as described in Patent Document 3, it is a plane that can be transformed into a convex surface or a concave surface, for example. Furthermore, the height and inclination can be changed.
本実施形態においては、ボリュームレンダリング部20が、後述する基準面の設定手段として機能する。基準面は、典型的には、開始面よりも視点側に設けられる平面であり、後述するレイ群に対して直交する平面である。基準面については後に図3乃至図6を用いて詳述する。 In the present embodiment, the volume rendering unit 20 functions as a reference plane setting unit to be described later. The reference plane is typically a plane provided closer to the viewpoint than the start plane, and is a plane orthogonal to a later-described ray group. The reference plane will be described in detail later with reference to FIGS.
ボリュームレンダリング部20は、ボリュームレンダリング法に基づいて、三次元関心領域つまり対象データに対してレイ群を設定し、個々のレイごとにレンダリング演算を実行する。複数のレイは本実施形態において互いに平行であり、それらは視点(又はそれに相当する面)から奥行き方向に延びる。複数のレイは三次元画像を構成する複数の画素に対応する。ボリュームレンダリング部20は、レイ単位で、開始点(レンダリング開始点)から終了点(レンダリング終了条件が満たされた点)までにわたって、一定のピッチで、出力光量演算(ボクセル演算)を繰り返し実行する。より正確に言えば、所定の終了条件が満たされるまで、演算点を順次シフトさせながら、オパシティ(不透明度)を利用した出力光量演算が繰り返し実行される。 Based on the volume rendering method, the volume rendering unit 20 sets a ray group for a three-dimensional region of interest, that is, target data, and executes a rendering operation for each ray. The plurality of rays are parallel to each other in the present embodiment, and they extend in the depth direction from the viewpoint (or a surface corresponding thereto). A plurality of rays correspond to a plurality of pixels constituting a three-dimensional image. The volume rendering unit 20 repeatedly executes the output light amount calculation (voxel calculation) at a constant pitch from the start point (rendering start point) to the end point (a point where the rendering end condition is satisfied) in units of rays. More precisely, the output light amount calculation using the opacity (opacity) is repeatedly executed while sequentially shifting the calculation points until a predetermined end condition is satisfied.
所定の終了条件には、第1の終了条件と第2の終了条件とがある。出力光量演算で参照するオパシティの累積値が所定値(例えば0.98)を超える場合に、第1の終了条件が満たされたと判断される。一方、出力光量演算が終了面まで到達した場合に第2の終了条件が満たされたと判断される。オパシティ関数を適宜設定しておけば、例えば、胎児表面又はその近傍で、つまり胎児の表層で、第1の終了条件が満たされる確率が高まる。その結果、専ら胎児表面が表された三次元画像を形成することが可能である。所定の終了条件が満たされた時点での出力光量、つまり終了点での出力光量、がそのレイに対応する輝度とされる。その輝度がメモリ22上にマッピングされる。複数のレイに対応する複数の輝度のマッピング結果として、メモリ22上に輝度マップが構成される。 The predetermined end condition includes a first end condition and a second end condition. When the accumulated value of the opacity referred to in the output light amount calculation exceeds a predetermined value (for example, 0.98), it is determined that the first end condition is satisfied. On the other hand, when the output light amount calculation reaches the end surface, it is determined that the second end condition is satisfied. If the opacity function is appropriately set, for example, the probability that the first termination condition is satisfied at or near the fetus surface, that is, at the surface of the fetus, is increased. As a result, it is possible to form a three-dimensional image exclusively representing the fetal surface. The output light amount when a predetermined end condition is satisfied, that is, the output light amount at the end point, is the luminance corresponding to the ray. The luminance is mapped on the memory 22. A luminance map is configured on the memory 22 as a result of mapping a plurality of luminances corresponding to a plurality of rays.
一方、出力光量演算に際しては、上記のように、オパシティが順次加算されており、その累積値が所定値に到達して第1の終了条件が満たされた時点で、あるいは、レイ上の演算点が三次元関心領域の終了面まで到達して第2の終了条件が満たされた時点で、終了点の深さが特定される。本実施形態では、その深さとして、基準点(基準面)から終了点までの長さが演算される。具体的には、終了条件が満たされるまでの出力光量演算回数に対し、レイ上でのサンプル点ピッチを乗算することにより、開始面から終了点までの第1の距離が求められる。一方、当該レイ上において又はその延長線上において、基準面から開始面までの長さが第2の距離として求められる。第1の距離と第2の距離とを加算することにより、カラー処理で参照される深さ(基準面を基準として規格化された深さ)が求められる。その深さがメモリ24上にマッピングされる。複数のレイに対応する複数の深さにより、メモリ24上に深さマップが構成される。それは、輝度マップと同様、三次元画像を構成する画素配列と同じ配列を有するものである。本実施形態では、上記のように、深さマップを構成する個々の深さが基準面からの深さつまり規格化された距離である。但し、開始面から終了点までの距離あるいは他の距離を上記深さとしてメモリ24上にマッピングするようにしてもよい。ボリュームレンダリングについては後に図2及び図7を用いて詳述する。 On the other hand, when calculating the output light quantity, as described above, the opacity is sequentially added, and when the accumulated value reaches a predetermined value and the first termination condition is satisfied, or the calculation point on the ray Reaches the end surface of the three-dimensional region of interest and the second end condition is satisfied, the end point depth is specified. In this embodiment, the length from the reference point (reference surface) to the end point is calculated as the depth. Specifically, the first distance from the start surface to the end point is obtained by multiplying the number of output light quantity calculations until the end condition is satisfied by the sample point pitch on the ray. On the other hand, the length from the reference plane to the start plane is obtained as the second distance on the ray or on the extension line. By adding the first distance and the second distance, a depth referred to in color processing (a depth normalized with reference to the reference plane) is obtained. The depth is mapped on the memory 24. A depth map is formed on the memory 24 by a plurality of depths corresponding to a plurality of rays. Similar to the luminance map, it has the same arrangement as the pixel arrangement constituting the three-dimensional image. In the present embodiment, as described above, each depth constituting the depth map is a depth from the reference plane, that is, a standardized distance. However, the distance from the start surface to the end point or another distance may be mapped on the memory 24 as the depth. The volume rendering will be described in detail later with reference to FIGS.
表示処理部30は、色付け機能、画像合成機能、等の各種の表示処理機能を備えている。その内で、カラー三次元画像を生成する部分がカラー処理部32として示されている。また、それに関連する機能としてガイド像生成部26及びパラメータ決定部28が示されている。表示処理部30はプロセッサ又は電子回路により構成される。制御部36を構成するCPU及びプログラムによって表示処理部30が構成されてもよい。 The display processing unit 30 has various display processing functions such as a coloring function and an image composition function. Among them, a part for generating a color three-dimensional image is shown as a color processing unit 32. Further, a guide image generation unit 26 and a parameter determination unit 28 are shown as functions related thereto. The display processing unit 30 is configured by a processor or an electronic circuit. The display processing unit 30 may be configured by a CPU and a program configuring the control unit 36.
カラー処理部32は、カラー三次元画像を構成する画素ごとに、輝度Iと深さZとから、画素値としてのカラーを決定するものである。例えば、輝度Iに応じて決定される暖色系のカラーと、同じく輝度Iに応じて決定される寒色系のカラーと、が深さZに応じて決定される色付け条件(混合率)に従って混合され、その混合結果として当該画素のカラーが決定される。その例において、前者の暖色系のカラーはメインカラーであり、つまり近距離表現用カラーであり、それは例えばオレンジ系のカラーである。後者の寒色系のカラーはサブカラーであり、つまり遠距離表現用カラーであり、例えばブルー系のカラーである。各画素に対応する深さは、典型的には、対象組織の表層の深さを表しているので、浅い位置に存在する表層については暖色系カラーで表現され、深い位置に存在する表層については寒色系カラーの混合割合が高められたカラーで表現される。もちろん、上記であげた具体的なカラーは例示である。 The color processing unit 32 determines a color as a pixel value from the luminance I and the depth Z for each pixel constituting the color three-dimensional image. For example, a warm color system determined according to the luminance I and a cold color system determined according to the luminance I are mixed according to the coloring condition (mixing ratio) determined according to the depth Z. As a result of the mixing, the color of the pixel is determined. In the example, the former warm color is a main color, that is, a short-distance expression color, which is, for example, an orange color. The latter cold color is a sub-color, that is, a color for long-distance expression, for example, a blue color. The depth corresponding to each pixel typically represents the depth of the surface layer of the target tissue, so that the surface layer present in the shallow position is expressed in a warm color, and the surface layer present in the deep position is represented by It is expressed in a color in which the mixing ratio of the cool color is increased. Of course, the specific colors listed above are exemplary.
本実施形態では、カラー処理部32が、輝度に応じてメインカラー及びサブカラーを決定する2つの変換テーブル(変換関数)を有しており、また、メインカラー及びサブカラーを深さに応じて重み付け合成する合成器を有している。その重み付け合成条件は混色関数によって規定される。混色関数には、深さ方向における混色範囲の中間深さを示す深さパラメータと、深さ方向における混色範囲の大きさを示す範囲パラメータと、が含まれる。但し、それらは例示である。それらに代わる複数のパラメータが混色関数に含まれていてもよい。本実施形態において、混色関数に含まれる個々のパラメータは、カラー三次元画像及び断層画像を観察しながらユーザーによって指定され、あるいは、深さマップ等に基づいて自動的に決定される。カラー処理部32の構成及び作用については後に図8及び図9を用いて詳述する。 In the present embodiment, the color processing unit 32 has two conversion tables (conversion functions) that determine the main color and the sub color according to the luminance, and the main color and the sub color according to the depth. It has a synthesizer for weighted synthesis. The weighting synthesis condition is defined by a color mixture function. The color mixing function includes a depth parameter indicating the intermediate depth of the color mixing range in the depth direction and a range parameter indicating the size of the color mixing range in the depth direction. However, they are examples. A plurality of parameters instead of them may be included in the color mixing function. In the present embodiment, individual parameters included in the color mixing function are designated by the user while observing the color three-dimensional image and the tomographic image, or are automatically determined based on a depth map or the like. The configuration and operation of the color processing unit 32 will be described in detail later with reference to FIGS.
ガイド像生成部26は、断層画像と共に表示されるガイド像を生成するモジュールである。ガイド像は、後述するように、グラフィック要素として構成され、つまり図形、色見本等として構成され、混色関数の内容又は作用の一部を視覚的に表現した像である。ガイド像も深さ軸(第1の深さ軸)を有する。断層画像は深さ軸(第2の深さ軸)を有する。第2の深さ軸はレイ群に対して平行であり、それは通常、断層画像の左側辺又は右側辺に一致する。第1の深さ軸が第2の深さ軸に平行になるように、ガイド像が断層画像の近傍に又は断層画像の上に表示される。第1の深さ軸が後述するマーカーの運動軸であってもよい。混色関数に含まれる深さパラメータ及び範囲パラメータをユーザーが設定する場合にガイド像が参照される。これによりパラメータ設定を支援できる。カラー三次元画像を観察する場合にもガイド像が参照される。これによりカラー三次元画像として表示された胎児の形態の把握を促進できる。ガイド像については後に図11乃至図18を用いて詳述する。 The guide image generation unit 26 is a module that generates a guide image displayed together with the tomographic image. As will be described later, the guide image is configured as a graphic element, that is, configured as a figure, a color sample, or the like, and is an image that visually represents a part of the content or function of the color mixing function. The guide image also has a depth axis (first depth axis). The tomographic image has a depth axis (second depth axis). The second depth axis is parallel to the ray group, which usually coincides with the left or right side of the tomographic image. The guide image is displayed in the vicinity of the tomographic image or on the tomographic image so that the first depth axis is parallel to the second depth axis. The first depth axis may be a movement axis of the marker described later. The guide image is referred to when the user sets the depth parameter and the range parameter included in the color mixture function. Thereby, parameter setting can be supported. A guide image is also referred to when a color three-dimensional image is observed. Thereby, grasping | ascertainment of the form of the fetus displayed as a color three-dimensional image can be accelerated | stimulated. The guide image will be described in detail later with reference to FIGS.
パラメータ決定部28は、混色関数に含まれる深さパラメータ(具体的には後に示すZs)及び範囲パラメータ(具体的には後に示すΔZ)の内の前者又は両者を自動的に(又は半自動的に)設定するモジュールである。この構成により、ユーザーの負担を軽減でき、また、カラー三次元画像の色合いを最適化することが容易となる。パラメータ自動設定については後に図19乃至図29を用いて詳述する。 The parameter determination unit 28 automatically (or semi-automatically) the former or both of the depth parameter (specifically Zs shown later) and the range parameter (specifically ΔZ shown later) included in the color mixing function. ) Module to be set. With this configuration, it is possible to reduce the burden on the user and to easily optimize the hue of the color three-dimensional image. The automatic parameter setting will be described in detail later with reference to FIGS.
制御部36はCPU及びプログラムによって構成され、制御部36により、図1に示されている個々の構成の動作が制御される。操作パネル38は入力装置を構成し、それを利用して三次元関心領域をマニュアル設定したり混色関数に含まれるパラメータを設定したりすることが可能である。クリッピング面としての開始面をマニュアルで設定する場合にも操作パネル38が利用される。本実施形態では、三次元関心領域よりも視点側に基準面が自動的に設定されているが、その基準面をマニュアルで設定できるように構成してもよい。表示器34には、カラー三次元画像、断層画像、ガイド像の他、必要に応じて、任意断層画像等が表示される。表示器34にトリプレーン画像が表示されてもよい。 The control unit 36 includes a CPU and a program, and the control unit 36 controls the operations of the individual components illustrated in FIG. The operation panel 38 constitutes an input device, and it is possible to manually set a three-dimensional region of interest or set parameters included in the color mixture function using the input panel. The operation panel 38 is also used when manually setting a start surface as a clipping surface. In the present embodiment, the reference plane is automatically set on the viewpoint side with respect to the three-dimensional region of interest. However, the reference plane may be set manually. In addition to the color three-dimensional image, tomographic image, and guide image, an arbitrary tomographic image and the like are displayed on the display unit 34 as necessary. A triplane image may be displayed on the display 34.
(2)輝度マップ及び深さマップの生成
図2には、輝度マップ及び深さマップの生成方法が模式的に示されている。但し、図2には一般的な生成方法が示されており、そこには基準面を利用した深さマップの生成方法は示されていない。
(2) Generation of Luminance Map and Depth Map FIG. 2 schematically shows a method for generating a luminance map and a depth map. However, FIG. 2 shows a general generation method, which does not show a depth map generation method using a reference plane.
三次元関心領域40に対して互いに並行に複数のレイ42が設定される。X−Y−Zは直交座標系を表している。Z方向が深さ方向である。符号41で示す矢印は視点から出る投影方向を示している。その方向に対して複数のレイ42が平行に設定される。なお、ボリュームデータに対して任意の位置に視点を設定することが可能である。 A plurality of rays 42 are set in parallel to the three-dimensional region of interest 40. XYZ represents an orthogonal coordinate system. The Z direction is the depth direction. An arrow denoted by reference numeral 41 indicates a projection direction from the viewpoint. A plurality of rays 42 are set parallel to the direction. Note that the viewpoint can be set at an arbitrary position with respect to the volume data.
図示の例では、符号40Aがクリッピング面としての開始面を示している。それは平面として描かれている。実際には開始面40Aの形状等を自在に変更することが可能である。個々のレイ42において、開始面40A上の開始点から奥行き方向(図示の例ではZ方向)へ出力光量演算が繰り返し実行される。その演算の都度、オパシティが累積加算される。上述した終了条件が満たされた時点で、出力光量演算が止まり、つまり、レンダリング演算が終了する。これによって、レイ42ごとに終了点44が特定される。その終了点44は例えば胎児の表層に相当する。レンダリング演算終了時点での出力光量が輝度としてメモリ上にマッピングされる。複数のレイ42に対応する複数の輝度のマッピング結果として輝度マップ46が構成される。それは白黒のボリュームレンダリング画像に相当する。 In the illustrated example, reference numeral 40A indicates a start surface as a clipping surface. It is drawn as a plane. Actually, the shape and the like of the start surface 40A can be freely changed. In each ray 42, the output light amount calculation is repeatedly executed in the depth direction (Z direction in the illustrated example) from the start point on the start surface 40A. The opacity is cumulatively added for each calculation. When the end condition described above is satisfied, the output light amount calculation stops, that is, the rendering calculation ends. As a result, the end point 44 is specified for each ray 42. The end point 44 corresponds to the surface layer of the fetus, for example. The output light amount at the end of the rendering operation is mapped on the memory as the luminance. A luminance map 46 is formed as a mapping result of a plurality of luminances corresponding to the plurality of rays 42. It corresponds to a monochrome volume rendering image.
一方、レイ単位で、終了点44の深さがメモリ上にマッピングされる。複数のレイ42に対応する複数の深さのマッピング結果として深さマップ48が構成される。グレースケール50に示されているように、図2においては、最小深さから最大深さまでが輝度の変化として表現されている。 On the other hand, the depth of the end point 44 is mapped on the memory in units of rays. A depth map 48 is formed as a mapping result of a plurality of depths corresponding to the plurality of rays 42. As shown in the gray scale 50, in FIG. 2, the minimum depth to the maximum depth is represented as a change in luminance.
輝度マップ46及び深さマップ48は、三次元画像を構成する二次元画素配列と同じ二次元画素配列を有する。輝度マップ46及び深さマップ48に基づいて、カラー三次元画像が形成される。例えば、上記のように、個々の画素ごとに、輝度に対応する2つのカラーが、深さに応じて重み付け合成され、これにより当該画素のカラーが決定される。これが全画素にわたって繰り返される。深さマップ48を構成する各深さは、以下に説明するように、基準点から終了点までの距離であるのが望ましい。但し、開始点から終了点までの距離であってもよい。それらの距離は、いずれも視点側から見た対象組織の深さを示すものである。 The luminance map 46 and the depth map 48 have the same two-dimensional pixel array as the two-dimensional pixel array constituting the three-dimensional image. Based on the luminance map 46 and the depth map 48, a color three-dimensional image is formed. For example, as described above, for each pixel, two colors corresponding to the luminance are weighted and synthesized according to the depth, thereby determining the color of the pixel. This is repeated over all pixels. Each depth constituting the depth map 48 is preferably a distance from the reference point to the end point, as will be described below. However, it may be the distance from the start point to the end point. These distances all indicate the depth of the target tissue viewed from the viewpoint side.
(3)基準面に基づく深さの演算
図3には基準面を有しない従来例が比較例として示されている。符号54は胎児を示しており、符号56は胎盤を示している。符号57は羊水を示している。符号52はボリュームデータを示し、符号58は三次元関心領域を示している(図3には三次元関心領域の断面が現れている)。三次元関心領域58は、クリッピング面として機能する開始面60、底面(下面)としての終了面65、及び、4つの側面(図3には2つの側面62,64が現れている)を有するボックス状の形態を有する。開始面60の凹形変形により、開始面60が胎児54と胎盤56との間の隙間に差し込まれている。このように三次元関心領域58の形態が定められた上で、それに対して設定される個々のレイごとにレンダリング演算が実行される。
(3) Depth Calculation Based on Reference Surface FIG. 3 shows a conventional example having no reference surface as a comparative example. Reference numeral 54 denotes a fetus, and reference numeral 56 denotes a placenta. Reference numeral 57 indicates amniotic fluid. Reference numeral 52 represents volume data, and reference numeral 58 represents a three-dimensional region of interest (a cross section of the three-dimensional region of interest appears in FIG. 3). The three-dimensional region of interest 58 is a box having a start surface 60 that functions as a clipping surface, an end surface 65 as a bottom surface (lower surface), and four side surfaces (two side surfaces 62 and 64 appear in FIG. 3). It has a shape. Due to the concave deformation of the start surface 60, the start surface 60 is inserted into the gap between the fetus 54 and the placenta 56. Thus, after the form of the three-dimensional region of interest 58 is determined, a rendering operation is executed for each individual ray set for the region.
図3において、個々の下向き矢印63はレンダリング演算経路を示しており、矢印63の先端が終了点を示している。なお、図3には、複数の下向き矢印63の中で胎児表層まで到達していないものが含まれているが、それは作図上の都合によるものである。図3に示す例では、基準面が採用されていない。つまり、各レイにおいて、開始面から終了点までの長さが深さとして演算され、その深さがそのまま色付け処理で参照される。それ故、開始面60が湾曲していることに起因して、深さマップにおいて胎児表面の形態とは関係のない深さ変化が生じてしまう。それは無用な色相変化を引き起こし得るものである。 In FIG. 3, each downward arrow 63 indicates a rendering calculation path, and the tip of the arrow 63 indicates the end point. Note that FIG. 3 includes a plurality of downward arrows 63 that do not reach the fetal surface, but this is for the convenience of drawing. In the example shown in FIG. 3, the reference plane is not adopted. That is, in each ray, the length from the start surface to the end point is calculated as the depth, and the depth is referred to in the coloring process as it is. Therefore, due to the start surface 60 being curved, a depth change in the depth map that is unrelated to the morphology of the fetal surface occurs. It can cause unwanted hue changes.
図4には基準面の第1例が示されている。なお、図3に示した要素と同様の要素には同一符号を付し、その説明を省略する。このことは、後に説明する図5及び図6についても同様である。 FIG. 4 shows a first example of the reference plane. In addition, the same code | symbol is attached | subjected to the element similar to the element shown in FIG. 3, and the description is abbreviate | omitted. The same applies to FIGS. 5 and 6 described later.
図4においては、開始面60よりも視点に近い側に基準面66が設定されている。その基準面66は、複数のレイに直交する平面である。デフォルト状態の開始面60を基準面と定めてもよい。基準面66は三次元関心領域58の全体を覆っている。具体的には、三次元関心領域58が有する4つの側面の上辺に連接する平面として基準面が構成されている。但し、視点により近い位置に基準面が設定されてもよい。基準面66が対象組織を横切らないように当該基準面66の位置を定めるのが望ましい。 In FIG. 4, the reference plane 66 is set closer to the viewpoint than the start plane 60. The reference plane 66 is a plane orthogonal to the plurality of rays. The start surface 60 in the default state may be defined as the reference surface. The reference surface 66 covers the entire three-dimensional region of interest 58. Specifically, the reference plane is configured as a plane connected to the upper sides of the four side surfaces of the three-dimensional region of interest 58. However, the reference plane may be set at a position closer to the viewpoint. It is desirable to determine the position of the reference surface 66 so that the reference surface 66 does not cross the target tissue.
個々のレイにおいては、従来同様にレンダリング演算が実行されるが、深さの演算に限っては、基準面66が基準として利用される。すなわち、各レイにおいて、基準面66から終了点までの規格化された長さが深さとして演算される。実際には、開始面60上の開始点から終了点までの第1の距離が演算され、一方、基準面66から開始面60までの第2の距離が演算される。そして、第1の距離と第2の距離とを加算することにより、その加算結果として、マッピングされる深さが演算される。もっとも、基準面から終了点までの距離が直接的に求められてもよい。本実施形態では、レンダリング演算範囲とは別に、深さが定義されるようにしたので、開始面の形態に依存しない、規格化された深さをカラー処理で利用できる。 For each ray, a rendering operation is executed as in the conventional case, but the reference plane 66 is used as a reference only for the depth calculation. That is, in each ray, the standardized length from the reference plane 66 to the end point is calculated as the depth. Actually, the first distance from the start point to the end point on the start surface 60 is calculated, while the second distance from the reference surface 66 to the start surface 60 is calculated. Then, by adding the first distance and the second distance, the depth to be mapped is calculated as the addition result. However, the distance from the reference plane to the end point may be directly obtained. In this embodiment, since the depth is defined separately from the rendering calculation range, a standardized depth that does not depend on the form of the start surface can be used in the color processing.
図5には基準面の第2例が示されている。この第2例では、胎盤56Aの形態を考慮して、三次元関心領域58Aの開始面60Aが凸面を構成しており、これにより、開始面60Aから見て視点とは反対側に基準面70が設定されている。但し、基準面70は、胎児54にかかっておらず、各レイにおいて演算される深さは、いずれもプラスの深さである(符号72を参照)。もっとも、図5に示す第2例では、基準面70が対象組織にかかり易いので、基準面70がより上方に位置するように、例えば、基準面70が開始面60Aの頂点を通過するように、基準面設定条件を変更するのが望ましい。 FIG. 5 shows a second example of the reference surface. In the second example, in consideration of the form of the placenta 56A, the start surface 60A of the three-dimensional region of interest 58A constitutes a convex surface, whereby the reference surface 70 is located on the opposite side to the viewpoint as viewed from the start surface 60A. Is set. However, the reference plane 70 does not cover the fetus 54, and the depth calculated in each ray is a plus depth (see reference numeral 72). However, in the second example shown in FIG. 5, since the reference surface 70 is likely to be applied to the target tissue, for example, the reference surface 70 passes through the apex of the start surface 60A so that the reference surface 70 is positioned higher. It is desirable to change the reference plane setting conditions.
図6には基準面の第3例が示されている。この例では、胎盤56Bがかなり複雑な形態を有しており、それに応じて、三次元関心領域58Bの開始面60Bも複雑な形態を有している。開始面60Bの視点側に基準面74が設定されている。それは平面であるが、各レイに対しては傾斜している。その傾斜角度は小さく、傾斜を原因とする深さ変化量はかなり小さい。しかも一様に傾斜しているので不自然な深さ変化や局所的な深さ変化は生じていない。このように、場合によっては、傾斜した基準面74を利用することも可能である。但し、傾斜に起因して見かけ上の深さ増減が生じるので、できる限り、各レイに直交する基準面(上記第1例として示した基準面)を採用するのが望ましい。 FIG. 6 shows a third example of the reference plane. In this example, the placenta 56B has a fairly complicated shape, and accordingly, the start surface 60B of the three-dimensional region of interest 58B also has a complicated shape. A reference surface 74 is set on the viewpoint side of the start surface 60B. It is a plane, but it is inclined for each ray. The inclination angle is small, and the amount of change in depth due to the inclination is quite small. Moreover, since it is uniformly inclined, no unnatural depth change or local depth change occurs. Thus, in some cases, it is possible to use the inclined reference plane 74. However, since the apparent depth increases and decreases due to the inclination, it is desirable to adopt the reference plane (reference plane shown as the first example) orthogonal to each ray as much as possible.
(4)ボリュームレンダリング
図7に輝度マップ及び深さマップの生成に関する動作の一例が示されている。S10では、レイ番号を示すkが初期化され、S12では、距離を示すdが初期化される。S14では、k番目のレイ上において距離dにある注目点について、エコー値(ボクセル値)が演算される。例えば、注目点の近傍に存在する8個のエコー値に基づいて三次元線形補間演算により注目点のエコー値が算出される。S16では、注目点でのエコー値、それに対応したオパシティ、等に基づく出力光量演算(ボクセル演算)が実行される。これにより注目点での出力光量が求まり、その出力光量が次の注目点での入力光量とされる。このようなアルゴリズムとして各種のものが知られている。S16では、オパシティの累積加算も実行される。
(4) Volume Rendering FIG. 7 shows an example of operations related to generation of a luminance map and a depth map. In S10, k indicating the ray number is initialized, and in S12, d indicating the distance is initialized. In S14, an echo value (voxel value) is calculated for a point of interest at a distance d on the kth ray. For example, the echo value of the target point is calculated by three-dimensional linear interpolation based on eight echo values existing in the vicinity of the target point. In S16, an output light amount calculation (voxel calculation) based on the echo value at the point of interest, the corresponding opacity, and the like is executed. As a result, the output light amount at the attention point is obtained, and the output light amount is set as the input light amount at the next attention point. Various algorithms are known as such an algorithm. In S16, cumulative addition of opacity is also executed.
S18では、所定の終了条件が満たされたか否かが判断される。満たされていない場合、S28においてdがインクリメントされた上で、S14からの各工程が繰り返し実行される。一方、S18において、終了条件が満たされたと判断された場合、S19において、最終的な出力光量が輝度としてメモリ上にマッピングされる。 In S18, it is determined whether or not a predetermined end condition is satisfied. If not satisfied, d is incremented in S28, and each step from S14 is repeatedly executed. On the other hand, when it is determined in S18 that the end condition is satisfied, in S19, the final output light amount is mapped on the memory as luminance.
S20では、基準面から開始面までの距離Δdが計算される。距離Δdは開始面の位置及び形態に依存する。S22では、終了点の距離であるdと、基準面と開始面との間の距離Δdと、が加算され、その結果として、規格化された深さZが求まる。S24では深さZがメモリ上にマッピングされる。S26では、kが最大値に到達したか否かが判断され、noであればS30においてkがインクリメントされた上で、S12以降の各工程が繰り返し実行される。 In S20, a distance Δd from the reference surface to the start surface is calculated. The distance Δd depends on the position and form of the starting surface. In S22, d which is the distance of the end point and the distance Δd between the reference plane and the start plane are added, and as a result, the normalized depth Z is obtained. In S24, the depth Z is mapped on the memory. In S26, it is determined whether or not k has reached the maximum value. If no, k is incremented in S30, and each step after S12 is repeatedly executed.
この後、輝度マップ及び距離マップに基づいてカラーの三次元画像が形成される。但し、三次元画像形成に先立って、少なくとも深さマップに対してはS27で平滑化処理が施される。 Thereafter, a color three-dimensional image is formed based on the luminance map and the distance map. However, prior to the three-dimensional image formation, at least the depth map is subjected to a smoothing process in S27.
(5)カラー処理
図8には、図1に示したカラー処理部32の構成例が示されている。カラー処理部32は、2つのテーブル84,86と、重み付け合成器88と、を有している。テーブル84は、フロント側変換テーブルであり、輝度Iに応じてメインカラー(RGB値)Cfを決定するルックアップテーブルである。一般的には、メインカラーとして、温かみを感じられるオレンジ系のカラーが採用される。つまり、近距離に存在する組織がそのようなカラーによって表現される。テーブル86は、バック側変換テーブルであり、輝度Iに応じてサブカラー(RGB値)Cbを決定するルックアップテーブルである。一般的には、サブカラーとして、メインカラーへの混色によって遠近感を増大できるブルー系のカラーが採用される。もっとも、上記のいずれのカラーも例示に過ぎない。
(5) Color Processing FIG. 8 shows a configuration example of the color processing unit 32 shown in FIG. The color processing unit 32 includes two tables 84 and 86 and a weighting synthesizer 88. The table 84 is a front side conversion table and is a lookup table that determines the main color (RGB value) Cf according to the luminance I. In general, an orange color is used as the main color. That is, the tissue existing at a short distance is represented by such a color. The table 86 is a back side conversion table, and is a lookup table that determines a sub color (RGB value) Cb according to the luminance I. In general, a blue color that can increase the perspective by mixing with the main color is adopted as the sub color. However, any of the above colors is merely an example.
重み付け合成器88は、輝度Iに応じて決定されたカラーCf及びカラーCbを、深さZに応じて重み付け合成するモジュールである。深さZに応じた混色割合は、以下に説明する混色関数(符号88A参照)によって決定される。重み付け合成器88から、重み付け合成後のカラー(RGB値)Cが出力される。もっとも、カラーCfに対して重み1.0が与えられる場合にはカラーCfがそのままカラーCとして出力され、同様に、カラーCbに対して重み1.0が与えられる場合にはカラーCbがそのままカラーCとして出力される。本実施形態においては、混色関数に含まれる2つのパラメータZs、ΔZを操作することにより、色付け条件が変更される。 The weighting synthesizer 88 is a module for weighting and synthesizing the color Cf and the color Cb determined according to the luminance I according to the depth Z. The color mixture ratio corresponding to the depth Z is determined by a color mixture function (see reference numeral 88A) described below. The weighted synthesizer 88 outputs a color (RGB value) C after weighted synthesis. However, when a weight of 1.0 is given to the color Cf, the color Cf is output as it is as the color C. Similarly, when a weight of 1.0 is given to the color Cb, the color Cb is used as it is. Output as C. In the present embodiment, the coloring condition is changed by manipulating the two parameters Zs and ΔZ included in the color mixture function.
図9には混色関数の一例が示されている。横軸は深さZを示している。縦軸は重みを示しており、具体的には、左側の縦軸はメインカラー(フロントカラー)Cfに与えられるフロント重みを示しており、右側の縦軸はサブカラー(バックカラー)Cbに与えられるバック重みを示している。第1の混色関数100によってメインカラーCfに与えられる重みが決定される。同様に、第2の混色関数102によってサブカラーCbに与えられる重みが決定される。2つの重みの総和は1.0である。よって、一方の混色関数から他方の混色関数が自動的に定まるので、一方の混色関数だけを利用するようにしてもよい。以下においては、必要に応じて2つの混色関数100,102の内で、メインカラー用の混色関数100だけを明示する。 FIG. 9 shows an example of the color mixing function. The horizontal axis indicates the depth Z. The vertical axis indicates the weight. Specifically, the left vertical axis indicates the front weight given to the main color (front color) Cf, and the right vertical axis gives the sub color (back color) Cb. Indicates the back weight to be used. The weight given to the main color Cf is determined by the first color mixing function 100. Similarly, the weight given to the sub color Cb by the second color mixing function 102 is determined. The sum of the two weights is 1.0. Therefore, since the other color mixing function is automatically determined from one color mixing function, only one color mixing function may be used. In the following description, only the color mixing function 100 for the main color will be clearly shown out of the two color mixing functions 100 and 102 as necessary.
図9において、横軸方向に3つの区間が設定されている。左側の区間(Z:0−Z1)においてはメインカラーが100%採用される。中央の区間(Z:Z1―Z2)においてはメインカラーとサブカラーとが深さ応じた混合割合で混合される。当該区間は深さ方向における混色区間あるいは混合範囲と言い得る。右側の区間(Z:Z2−Zmax)においてはサブカラーが100%採用される。混合区間における中間深さが深さパラメータZsであり、混合区間の深さ方向の範囲が範囲パラメータΔZである。本実施形態では、それらのパラメータによって、混色関数100,102の形態つまり混合作用が規定される。例えば、対象組織の表層における平均的な深さ付近に、あるいは、特に形態観察を行いたい部位の深さ付近に、深さパラメータZsが設定される。また、例えば、対象組織の形態の変化の度合いに応じて、範囲パラメータΔZが設定される。 In FIG. 9, three sections are set in the horizontal axis direction. In the left section (Z: 0-Z1), the main color is adopted 100%. In the central section (Z: Z1-Z2), the main color and the sub color are mixed at a mixing ratio corresponding to the depth. This section can be said to be a color mixing section or a mixing range in the depth direction. In the right section (Z: Z2-Zmax), 100% of the sub-color is adopted. The intermediate depth in the mixing section is the depth parameter Zs, and the range in the depth direction of the mixing section is the range parameter ΔZ. In the present embodiment, the form of the color mixing functions 100 and 102, that is, the mixing action is defined by these parameters. For example, the depth parameter Zs is set in the vicinity of the average depth in the surface layer of the target tissue, or in particular in the vicinity of the depth of the site where morphological observation is desired. Further, for example, the range parameter ΔZ is set according to the degree of change in the shape of the target tissue.
深さパラメータZsを増減すると、混色関数100,102が横軸方向にシフトすることから、深さパラメータZsをシフトパラメータと称することもできる。範囲パラメータΔZを増減すると、カラー三次元画像におけるメインカラー及びサブカラーの割合と、混合カラーの割合とが変化することから、範囲パラメータΔZをコントラストパラメータと称することもできる。なお、他のパラメータによって混色関数が定義されてもよい。また、曲線によって混色関数が定義されてもよい。 When the depth parameter Zs is increased or decreased, the color mixing functions 100 and 102 shift in the horizontal axis direction, and therefore the depth parameter Zs can also be referred to as a shift parameter. When the range parameter ΔZ is increased or decreased, the ratio of the main color and the sub color and the ratio of the mixed color in the color three-dimensional image change. Therefore, the range parameter ΔZ can also be referred to as a contrast parameter. Note that the color mixing function may be defined by other parameters. Further, the color mixing function may be defined by a curve.
カラー三次元画像を観察するだけで、上記パラメータをマニュアルで設定することは難しく、その設定を支援することが望まれる。そこで、本実施形態ではガイド像が生成されており、それが三次元画像及び断層画像と共に表示される。また、パラメータ設定の際のユーザー負担を軽減するためパラメータを自動的に決定する仕組みが設けられている。 It is difficult to set the above parameters manually only by observing a color three-dimensional image, and it is desirable to support the setting. Therefore, in this embodiment, a guide image is generated and displayed together with a three-dimensional image and a tomographic image. In addition, a mechanism for automatically determining parameters is provided in order to reduce the burden on the user when setting parameters.
それらの概要を図10に基づいて説明する。図10には図1に示した表示処理部の動作がフローチャートとして示されている。S40ではモードが選択される。パラメータをマニュアルで設定をする場合にはS42が実行され、パラメータを自動的に(又は半自動的に)設定する場合にはS50が実行される。S42では、画素ごとに、輝度に応じてフロントカラー及びバックカラーが決定され、それらが深さに応じて重み付け合成される。これにより、当該画素のカラーが決定される。重み付け合成の条件(つまり色付け条件)は混色関数により定められる。重み付け合成に先立って、S44において、ユーザーにより、深さパラメータZs及び範囲パラメータΔZが指定され、それらが受け付けられる。それらのパラメータZs,ΔZによって混色関数が定義されることになる。S46において、混色関数を象徴する像として、混色関数の内容又は作用の少なくとも一部又は一面を表すガイド像が表示される。それを参照しながらパラメータ設定を行える。ガイド像に影響を与えるパラメータが変更された場合、その変更がガイド像にリアルタイムで反映される。S48では、本処理を継続するか否かが判定され、本処理を継続する場合にはS40以降の各工程が繰り返し実行される。 The outline thereof will be described with reference to FIG. FIG. 10 is a flowchart showing the operation of the display processing unit shown in FIG. In S40, the mode is selected. If the parameter is set manually, S42 is executed, and if the parameter is set automatically (or semi-automatically), S50 is executed. In S42, for each pixel, a front color and a back color are determined according to the luminance, and they are weighted and synthesized according to the depth. Thereby, the color of the pixel is determined. The weighting / combining condition (that is, the coloring condition) is determined by a color mixing function. Prior to the weighting synthesis, in S44, the user specifies the depth parameter Zs and the range parameter ΔZ and accepts them. A color mixing function is defined by these parameters Zs and ΔZ. In S46, as an image symbolizing the color mixing function, a guide image representing at least a part or one surface of the content or function of the color mixing function is displayed. You can set parameters while referring to it. When a parameter that affects the guide image is changed, the change is reflected in the guide image in real time. In S48, it is determined whether or not to continue the present process. When the present process is continued, each step after S40 is repeatedly executed.
S40において、パラメータの自動設定が選択された場合、S50において、深さマップに基づいて深さパラメータZsが自動的に決定される。その上で、S52において範囲パラメータΔZが例えば深さパラメータZsに基づいて自動的に決定される。但し、範囲パラメータΔZがマニュアルで決定されてもよい。S56では、上記S46と同様に、決定された深さパラメータZsと範囲パラメータΔZの内の両方又は一方がガイド像の内容に反映される。S54では、画素ごとに、輝度に応じてフロントカラー及びバックカラーが決定され、それらが深さに応じて重み付け合成される。これにより当該画素のカラーが決定される。この場合も、重み付け合成の条件が混色関数により定められる。 If the automatic parameter setting is selected in S40, the depth parameter Zs is automatically determined based on the depth map in S50. Then, in S52, the range parameter ΔZ is automatically determined based on, for example, the depth parameter Zs. However, the range parameter ΔZ may be determined manually. In S56, as in S46, both or one of the determined depth parameter Zs and range parameter ΔZ is reflected in the content of the guide image. In S54, for each pixel, a front color and a back color are determined according to the luminance, and they are weighted and synthesized according to the depth. Thereby, the color of the pixel is determined. Also in this case, the condition for weighting synthesis is determined by the color mixing function.
(6)ガイド像
図11にはガイド像の第1例が示されている。表示画面104上には白黒の断層画像106及びカラー三次元画像108が表示されている。カラー三次元画像108は、三次元関心領域内のボリュームデータに対してボリュームレンダリングを適用し、更にカラー処理を適用することにより生成された画像である。ここでは胎児の顔が立体的に表現されている。断層画像106は、三次元空間(ボリュームデータ)の垂直断面を示し、それはレイ列に相当する。この例では、断層画像106において、横軸がX軸であり、縦軸がZ軸である。断層画像106における左側の垂直辺及び右側の垂直辺はいずれもZ軸に相当する。断層画像106内にはボックスとして三次元関心領域110が表示されている。
(6) Guide Image FIG. 11 shows a first example of a guide image. On the display screen 104, a black and white tomographic image 106 and a color three-dimensional image 108 are displayed. The color three-dimensional image 108 is an image generated by applying volume rendering to volume data in a three-dimensional region of interest and further applying color processing. Here, the face of the fetus is represented in three dimensions. The tomographic image 106 shows a vertical section of a three-dimensional space (volume data), which corresponds to a ray train. In this example, in the tomographic image 106, the horizontal axis is the X axis and the vertical axis is the Z axis. Both the left and right vertical sides in the tomographic image 106 correspond to the Z-axis. A three-dimensional region of interest 110 is displayed as a box in the tomographic image 106.
断層画像106の左側端部には、具体的には、三次元関心領域110の左側垂直辺の近傍には、ガイド像112が表示されている。ガイド像112は、混色関数の内容又は作用を示す像である。この第1例では、ガイド像が、深さパラメータZs(つまり混色範囲の中間レベル120)を示すマーカー114を有している。符号116は開始面レベルを表し、符号118は終了面レベルを示している。マーカー114はそれらの間を垂直方向につまり深さ軸方向に運動するグラフィック要素である。図示の例では、マーカー114が三角形の形態を有しているが、それは例示に過ぎない。 Specifically, a guide image 112 is displayed near the left vertical side of the three-dimensional region of interest 110 at the left end of the tomographic image 106. The guide image 112 is an image showing the content or function of the color mixing function. In this first example, the guide image has a marker 114 indicating the depth parameter Zs (that is, the intermediate level 120 of the color mixture range). Reference numeral 116 represents a start surface level, and reference numeral 118 represents an end surface level. The marker 114 is a graphic element that moves between them in the vertical direction, that is, in the depth axis direction. In the example shown, the marker 114 has a triangular shape, but this is merely exemplary.
ガイド像112は運動軸としての深さ軸を有し、その深さ軸は断層画像が有する深さ軸と平行である。操作パネル38における摘み122を操作すると、符号126で示すように、深さパラメータZsが変化し、それに伴ってマーカー114が上下方向に運動する。同時にカラー三次元画像108のカラー態様も変化する。深さ軸上のマーカー114によって深さパラメータZsを認識できる。本実施形態によれば、断層画像106上に表示されている組織構造を参照しつつ、深さパラメータZsを最適化することが可能である。なお、操作パネル38には範囲パラメータΔZを調整するための摘み124も含まれる。図11に示す第1例では、範囲パラメータΔZを変更しても、ガイド像112の表示態様は変化しないが、カラー三次元画像108のカラー表現態様は変化する。この第1例によると、混色関数の内容(特にそこに含まれる主要なパラメータ)及び混色関数が作用する深さ(混色範囲の中間レベル)を断層画像との対比において認識することが可能である。 The guide image 112 has a depth axis as a motion axis, and the depth axis is parallel to the depth axis of the tomographic image. When the knob 122 on the operation panel 38 is operated, the depth parameter Zs changes as indicated by reference numeral 126, and the marker 114 moves in the vertical direction accordingly. At the same time, the color aspect of the color three-dimensional image 108 also changes. The depth parameter Zs can be recognized by the marker 114 on the depth axis. According to the present embodiment, it is possible to optimize the depth parameter Zs while referring to the tissue structure displayed on the tomographic image 106. The operation panel 38 also includes a knob 124 for adjusting the range parameter ΔZ. In the first example shown in FIG. 11, even if the range parameter ΔZ is changed, the display mode of the guide image 112 does not change, but the color expression mode of the color three-dimensional image 108 changes. According to the first example, it is possible to recognize the content of the color mixing function (particularly, main parameters included therein) and the depth at which the color mixing function acts (intermediate level of the color mixing range) in comparison with the tomographic image. .
図12には、ガイド像の第2例が示されている。なお、図11に示した要素と同様の要素には同一符号を付しその説明を省略する。このことは図13以後の各図においても同様である。 FIG. 12 shows a second example of the guide image. In addition, the same code | symbol is attached | subjected to the element similar to the element shown in FIG. 11, and the description is abbreviate | omitted. This is the same in each figure after FIG.
図12において、ガイド像128は、深さ方向に伸長した帯状の形態を有する。この例では、ガイド像128の上端は開始面レベル116に一致しており、ガイド像128の下端は終了面レベル118に一致している。ガイド像128は、大別して、倒立した台形状の上部126aと、台形状の下部126bと、からなる。それらの間が境界線126cであり、それは共通斜辺をなしている。境界線126cは混色関数(フロント重みを規定する混色関数)における混色範囲を表している。境界線126cの深さ方向の幅が混色範囲の深さ方向のサイズに対応しており、境界線126cの傾きが混合率つまり勾配に対応している。つまり、ガイド像128は混色関数の形態それ自体を表現している。 In FIG. 12, the guide image 128 has a strip shape extending in the depth direction. In this example, the upper end of the guide image 128 matches the start surface level 116, and the lower end of the guide image 128 matches the end surface level 118. The guide image 128 is roughly divided into an inverted trapezoidal upper portion 126a and a trapezoidal lower portion 126b. Between them is a boundary line 126c, which forms a common hypotenuse. The boundary line 126c represents a color mixture range in the color mixture function (color mixture function defining the front weight). The width of the boundary line 126c in the depth direction corresponds to the size of the color mixture range in the depth direction, and the inclination of the boundary line 126c corresponds to the mixing ratio, that is, the gradient. That is, the guide image 128 represents the form of the color mixing function itself.
上部126aはフロント側変換テーブルにより生成されるメインカラー群の内の代表的なメインカラーによって着色されている。下部126bはバック側変換テーブルにより生成されるサブカラー群の内の代表的なサブカラーによって着色されている。よって、上部126a及び下部126bはそれぞれ色見本として機能する。 The upper part 126a is colored with a representative main color in the main color group generated by the front side conversion table. The lower portion 126b is colored by a representative sub color in the sub color group generated by the back side conversion table. Therefore, the upper part 126a and the lower part 126b each function as a color sample.
符号126で示されているように、摘み122を操作して深さパラメータZsを変化させると、境界線126cがその傾斜角度を維持したまま深さ方向へ運動する。一方、符号134で示されているように、摘み124を操作して範囲パラメータΔZを変化させると、境界線126cの中間深さが維持されたまま、境界線126cの両端間の深さ方向のサイズが変化し、同時に傾斜角度が変化する。この第2例によれば、深さ軸上において、2つのパラメータを具体的に認識することが可能である。換言すれば、この第2例によれば、混合関数それ自体の具体的な内容及びそれによる作用の全体を直感的に認識し易い。 As indicated by reference numeral 126, when the depth parameter Zs is changed by operating the knob 122, the boundary line 126c moves in the depth direction while maintaining the inclination angle. On the other hand, as indicated by reference numeral 134, when the knob 124 is operated to change the range parameter ΔZ, the intermediate depth of the boundary line 126c is maintained, and the depth direction between both ends of the boundary line 126c is maintained. The size changes and the tilt angle changes at the same time. According to the second example, two parameters can be specifically recognized on the depth axis. In other words, according to the second example, it is easy to intuitively recognize the specific content of the mixing function itself and the entire action.
図13には、ガイド像の第3例が示されている。ガイド像136はグラフ状の形態を有し、具体的には、横軸136a,縦軸136b及び折れ線136cを有する。横軸136
aはフロント重み(メインカラーに与える重み)の大きさを示している。縦軸136bは深さZを示している。折れ線136cはメインカラー用の混色関数を示している。サブカラー用の混色関数は、メインカラー用の混色関数から容易に導ける。第4例によれば、混色関数の内容を具体的に認識できる。
FIG. 13 shows a third example of the guide image. The guide image 136 has a graph-like form, and specifically includes a horizontal axis 136a, a vertical axis 136b, and a broken line 136c. Horizontal axis 136
a indicates the size of the front weight (weight given to the main color). The vertical axis 136b indicates the depth Z. A broken line 136c indicates a color mixing function for the main color. The color mixing function for the sub color can be easily derived from the color mixing function for the main color. According to the fourth example, the content of the color mixing function can be specifically recognized.
図14には、ガイド像の第4例が示されている。ガイド像138は深さ方向に伸長した帯状の形態を有する。ガイド像の上端138aから下端138bにかけて深さ方向に色が変化する色変化見本が構成されている。実際には、混色範囲(符号130で示される深さZ1からが符号132で示される深さZ2の間)において、色変化(グラデーション)が生じている。深さZ1よりも上側ではメインカラーが表示され、深さZ2よりも下側ではサブカラーが表示される。このような深さ方向に変化する色変化見本により、混色関数の作用を具体的に認識することができる。 FIG. 14 shows a fourth example of the guide image. The guide image 138 has a strip shape extending in the depth direction. A color change sample is formed in which the color changes in the depth direction from the upper end 138a to the lower end 138b of the guide image. Actually, a color change (gradation) occurs in the mixed color range (between the depth Z1 indicated by reference numeral 130 and the depth Z2 indicated by reference numeral 132). The main color is displayed above the depth Z1, and the sub color is displayed below the depth Z2. With such a color change sample that changes in the depth direction, the action of the color mixing function can be specifically recognized.
図15には、ガイド像の第5例が示されている。ガイド像140は、色変化見本142と、2つのマーカー144,146と、により構成されている。色変化見本142は、深さ方向に伸長した帯状の形態を有し、その上辺142aが開始面深さを表しており、その下辺142bが終了面深さを表している。色変化見本142は、上記のガイド像138と同様に、深さ方向に変化するカラーによって構成されている。符号130及び符号132は、混色範囲の両端の深さZ1,Z2を示している。それらの深さZ1,Z2が2つのマーカー144,146によって特定されている。各マーカー144,146は深さZ1,Z2の変化に伴って深さ方向に運動するグラフィック要素である。その形態として三角形以外の形態(例えば単なる水平ライン)を採用してもよい。各マーカー144,146の位置を調整することにより混色関数を設定することが可能である。その場合、深さパラメータZs及び範囲パラメータΔZが深さZ1,Z2によって定められてもよいし、深さZ1,Z2がパラメータとして混色関数に直接的に与えられてもよい。各マーカー144,146をポインティングデバイスによって直接的に動かすようにしてもよいし、摘み操作によって動かすようにしてもよい。 FIG. 15 shows a fifth example of the guide image. The guide image 140 includes a color change sample 142 and two markers 144 and 146. The color change sample 142 has a strip shape extending in the depth direction, and an upper side 142a thereof represents a start surface depth, and a lower side 142b thereof represents an end surface depth. Similar to the guide image 138, the color change sample 142 is configured by a color that changes in the depth direction. Reference numerals 130 and 132 indicate depths Z1 and Z2 at both ends of the color mixture range. Their depths Z1, Z2 are specified by two markers 144, 146. The markers 144 and 146 are graphic elements that move in the depth direction as the depths Z1 and Z2 change. A form other than a triangle (for example, a simple horizontal line) may be adopted as the form. It is possible to set a color mixing function by adjusting the positions of the markers 144 and 146. In that case, the depth parameter Zs and the range parameter ΔZ may be determined by the depths Z1 and Z2, or the depths Z1 and Z2 may be directly given to the color mixing function as parameters. Each marker 144, 146 may be moved directly by a pointing device, or may be moved by a picking operation.
図16には、ガイド像の第6例が示されている。表示画面148上にはいわゆるトリプレーンを構成する直交関係にある3つの白黒断層画像150,152,154が表示されている。更に、カラー三次元画像156が表示されている。断層画像150はX軸及びZ軸を有し、第1垂直断面としてのA面を表すものである。断層画像152はY軸及びZ軸を有し、第2垂直断面としてのB面を表すものである。断層画像154はX軸及びY軸を有し、水平断面としてのC面を表すものである。断層画像150内には三次元関心領域の近傍にガイド像158が表示されている。断層画像152内には三次元関心領域の近傍にガイド像160が表示されている。このように複数の断層画像と共に複数のガイド像を表示するようにしてもよい。 FIG. 16 shows a sixth example of the guide image. On the display screen 148, three black-and-white tomographic images 150, 152, and 154 that are orthogonal to form a so-called triplane are displayed. Further, a color three-dimensional image 156 is displayed. The tomographic image 150 has an X axis and a Z axis, and represents the A plane as the first vertical section. The tomographic image 152 has a Y axis and a Z axis, and represents the B plane as the second vertical section. The tomographic image 154 has an X axis and a Y axis, and represents the C plane as a horizontal section. In the tomographic image 150, a guide image 158 is displayed near the three-dimensional region of interest. In the tomographic image 152, a guide image 160 is displayed near the three-dimensional region of interest. Thus, a plurality of guide images may be displayed together with a plurality of tomographic images.
なお、ガイド像158,160は、それぞれ、図12に示したガイド像と同じ態様を有している。もちろん、ガイド像158,160として、他の態様を採用してもよいし、それらの態様を互いに異ならせてもよい。 The guide images 158 and 160 have the same mode as the guide image shown in FIG. Of course, other modes may be adopted as the guide images 158 and 160, or these modes may be different from each other.
図17には、ガイド像の第7例が示されている。断層画像上には三次元関心領域162が示されており、それはクリッピング面として機能する上面162Aを有する。それとは別に、規格化された深さを演算するための基準面164が設定されている。ガイド像166は左側部分166L及び右側部分166Rを含む。左側部分166Lは深さパラメータZsを示すマーカー168を有している。深さパラメータZsを示す水平ライン174も表示されている。右側部分166Rは混色範囲の両端の深さZ1,Z2を示す2つのマーカー170,172を有している。 FIG. 17 shows a seventh example of the guide image. A three-dimensional region of interest 162 is shown on the tomographic image and has an upper surface 162A that functions as a clipping plane. Separately, a reference plane 164 for calculating a standardized depth is set. The guide image 166 includes a left portion 166L and a right portion 166R. The left portion 166L has a marker 168 indicating a depth parameter Zs. A horizontal line 174 indicating the depth parameter Zs is also displayed. The right portion 166R has two markers 170 and 172 indicating the depths Z1 and Z2 at both ends of the color mixture range.
このようにガイド像を構成する複数の要素を分散的に表示することにより、視認性や見栄えを良好にできる。更に、水平ライン174を表示すれば、組織構造と深さパラメータZsとの関係を具体的に特定できるので、深さパラメータZsの調整がし易くなる。 Thus, by displaying a plurality of elements constituting the guide image in a distributed manner, visibility and appearance can be improved. Furthermore, if the horizontal line 174 is displayed, the relationship between the tissue structure and the depth parameter Zs can be specifically identified, so that the depth parameter Zs can be easily adjusted.
図18には、ガイド像の第8例が示されている。三次元関心領域176の上面176Aが凸面を構成している。この例では基準面が採用されていない。つまり、上面176Aから終了点までの距離が深さとして演算されている。表示エリア内における個々の開始点の位置が揃わなくなることから(湾曲することから)、水平方向の各位置での深さパラメータZsの位置も画面上で湾曲することになる。これを踏まえ、ガイド像178には、マーカー180を含む左側部分178L、及び、マーカー182,184を含む右側部分178Rに加えて、深さパラメータZsを表す曲線186、深さZ1を表す曲線188及び深さZ2を表す曲線190が含まれている。それらの曲線186,188,190は、断層画像を横断している。この第8例によれば、各水平位置において、深さパラメータZs、深さZ1及び深さZ2を正しく認識することが可能である。 FIG. 18 shows an eighth example of the guide image. An upper surface 176A of the three-dimensional region of interest 176 forms a convex surface. In this example, the reference plane is not adopted. That is, the distance from the upper surface 176A to the end point is calculated as the depth. Since the positions of the individual start points in the display area are not aligned (because they are curved), the position of the depth parameter Zs at each position in the horizontal direction is also curved on the screen. Based on this, the guide image 178 includes a curve 186 representing the depth parameter Zs, a curve 188 representing the depth Z1 in addition to the left portion 178L including the marker 180 and the right portion 178R including the markers 182 and 184. A curve 190 representing the depth Z2 is included. These curves 186, 188, 190 cross the tomographic image. According to the eighth example, it is possible to correctly recognize the depth parameter Zs, the depth Z1, and the depth Z2 at each horizontal position.
以上のように、断層画像と共に(それに重畳して又はその近傍に)ガイド像を表示すれば、断層画像上に表示された組織との関係において、関数の内容又は作用を直感的に認識することが可能である。よって、そのようなガイド像を見ながらパラメータの設定を行えば、ユーザーの負担や混乱を軽減できる。ガイド像はカラー三次元画像を観察する場合においても参考になるものである。 As described above, if a guide image is displayed together with a tomographic image (overlaid on or near the tomographic image), the content or function of the function can be intuitively recognized in relation to the tissue displayed on the tomographic image. Is possible. Therefore, if the parameters are set while looking at such a guide image, the burden and confusion of the user can be reduced. The guide image is also useful when observing a color three-dimensional image.
(7)パラメータ自動決定
既に説明したように、本実施形態においては、必要に応じて、混色関数に含まれるパラメータが自動的に決定される。図19において、符号194で示されている深さパラメータZs(以下、単に「深さZs」ともいう。)は、符号192で示されている深さマップから決定される。その場合、以下に説明するように、深さマップの全部又は一部における、平均値、最浅点の深さ、最深点の深さ、ユーザー指定点の深さ等として、深さパラメータZsが決定される。符号196で示されている範囲パラメータΔZ(以下、単に「範囲ΔZ」ともいう。)がマニュアルで設定されてもよいが、望ましくは、それは、深さパラメータZsから自動的に決定され、あるいは、深さマップから自動的に決定される。三次元画像上での指定点に対応する深さに基づいて範囲パラメータΔZが決定されてもよい。
(7) Automatic Parameter Determination As already described, in this embodiment, parameters included in the color mixture function are automatically determined as necessary. In FIG. 19, the depth parameter Zs indicated by reference numeral 194 (hereinafter also simply referred to as “depth Zs”) is determined from the depth map indicated by reference numeral 192. In this case, as will be described below, the depth parameter Zs includes the average value, the depth of the shallowest point, the depth of the deepest point, the depth of the user-specified point, etc. in all or part of the depth map. It is determined. The range parameter ΔZ indicated by reference numeral 196 (hereinafter, also simply referred to as “range ΔZ”) may be set manually. Preferably, it is automatically determined from the depth parameter Zs, or It is automatically determined from the depth map. The range parameter ΔZ may be determined based on the depth corresponding to the designated point on the three-dimensional image.
深さパラメータZs及び範囲パラメータΔZが決定されると、それらによって混色関数198が定義される。混色関数198は、既に詳述したように、画素の輝度から並列的に求められるメインカラー及びサブカラーを、画素に対応する深さに応じて混合する関数である。以下にパラメータ決定方法の具体例を説明する。 Once the depth parameter Zs and the range parameter ΔZ are determined, a color mixing function 198 is defined thereby. As described in detail above, the color mixing function 198 is a function that mixes the main color and the sub color obtained in parallel from the luminance of the pixel according to the depth corresponding to the pixel. A specific example of the parameter determination method will be described below.
図20には、深さパラメータ決定方法の第1例が示されている。カラー三次元画像200内にはユーザー設定により又は自動的に参照エリア206が設定されている。図示の例では、垂直中心線204及び水平中心線202の交点(中心点)を中心として広がる矩形のエリアとして参照エリア206が設定されている。参照エリア206は、エコーが不安定となる、あるいは、エコーが消失し易い周囲部分を除外したものである。カラー三次元画像200の全体を参照エリア206として設定してもよいが、観察したい部位が支配的に含まれ、観察したくない部位が除外されるように、参照エリアのサイズや位置を調整するのが望ましい。 FIG. 20 shows a first example of the depth parameter determination method. A reference area 206 is set in the color three-dimensional image 200 by user setting or automatically. In the example shown in the drawing, a reference area 206 is set as a rectangular area that spreads around the intersection (center point) of the vertical center line 204 and the horizontal center line 202. The reference area 206 excludes a surrounding portion where the echo becomes unstable or the echo is likely to disappear. The entire color three-dimensional image 200 may be set as the reference area 206. However, the size and position of the reference area are adjusted so that the part to be observed is dominantly included and the part not to be observed is excluded. Is desirable.
この第1例では、深さマップ上に参照エリア206と同じ参照エリアが設定され、その参照エリア内において深さの平均値が演算される。参照エリア206はそのために設定されるエリアであるとも言える。深さマップにおける参照エリア内の平均値がそのまま深さパラメータZsとして設定される。なお、範囲パラメータについては、マニュアルで設定されてもよいし、後述するように、深さパラメータZsに連動する値としてもよい。 In the first example, the same reference area as the reference area 206 is set on the depth map, and the average value of the depth is calculated in the reference area. It can be said that the reference area 206 is an area set for this purpose. The average value in the reference area in the depth map is set as the depth parameter Zs as it is. The range parameter may be set manually, or may be a value linked to the depth parameter Zs as will be described later.
参照エリア内の平均値は、画像化したい組織(表層)の平均的な深さと言えるから、そこを深さパラメータZsとすれば、混色範囲を最適化できる可能性を高められる自動設定誤、必要に応じて、マニュアルで微調整してもよい。 Since the average value in the reference area can be said to be the average depth of the tissue (surface layer) to be imaged, if it is set as the depth parameter Zs, automatic setting mistakes that increase the possibility of optimizing the color mixture range are necessary. Depending on the manual, fine adjustments may be made manually.
図21には、深さパラメータ決定方法の第2例が示されている。第1例と同様に、カラー三次元画像200に対して参照エリア206が設定されている。この参照エリア206と同じ参照エリアが深さマップ上に設定される。そして、その参照エリア内における最も浅い点(最浅点)Aの深さZaと、その参照エリア内における最も深い点(最深点)Bの深さZbと、が自動的に特定される。その上で、例えば次の(1)式により、深さパラメータZsが決定される(符号210参照)。但しαは係数である。 FIG. 21 shows a second example of the depth parameter determination method. Similar to the first example, a reference area 206 is set for the color three-dimensional image 200. The same reference area as this reference area 206 is set on the depth map. Then, the depth Za of the shallowest point (the shallowest point) A in the reference area and the depth Zb of the deepest point (the deepest point) B in the reference area are automatically specified. Then, for example, the depth parameter Zs is determined by the following equation (1) (see reference numeral 210). Where α is a coefficient.
Zs=(Zb-Za)×α+Za ・・・(1) Zs = (Zb-Za) × α + Za (1)
この構成によれば、参照エリア内における深さの広がりを考慮して、深さパラメータZsを自動的に決定できる。決定された深さパラメータZsはガイド像を通じて確認し得る。 According to this configuration, the depth parameter Zs can be automatically determined in consideration of the depth spread in the reference area. The determined depth parameter Zs can be confirmed through a guide image.
図22には上記(1)式を構成する要素が示されている。符号212は断層画像上における三次元関心領域を示している。それは胎児の頭部214を包含している。最浅点Aの深さZaと、最深点Bの深さZbとの間を一定の割合αで内分する深さとして深さZsが決定される。αを固定値とせずにパラメータとし、ユーザーによって又は対象組織によってそれを可変できるようにしてもよい。 FIG. 22 shows elements constituting the above expression (1). Reference numeral 212 indicates a three-dimensional region of interest on the tomographic image. It includes the fetal head 214. The depth Zs is determined as a depth that internally divides the depth Za of the shallowest point A and the depth Zb of the deepest point B at a constant ratio α. α may be a parameter instead of a fixed value, and may be variable by the user or the target tissue.
図23には、深さパラメータ決定方法の第3例が示されている。カラー三次元画像200上には参照エリア206が設定されており、また、カラー三次元画像200上にはユーザー指定された指定点Aが設定されている。指定点Aが断層画像上において指定されてもよい。指定点Aは、例えば、胎児において最も浅いと思われる部位上に指定される。深さマップから指定点に対応する深さZaが特定される。また、深さマップにおける参照エリア(上記参照エリア206と同じ参照エリア)内における最深点Bが特定され、その深さZbが特定される。そして、上記(1)式に従って、深さパラメータZsが決定される(符号216参照)。最深点をユーザーが指定し、最浅点を自動的に決定するようにしてもよい。 FIG. 23 shows a third example of the depth parameter determination method. A reference area 206 is set on the color three-dimensional image 200, and a designated point A designated by the user is set on the color three-dimensional image 200. The designated point A may be designated on the tomographic image. The designated point A is designated, for example, on a part considered to be the shallowest in the fetus. A depth Za corresponding to the specified point is specified from the depth map. Further, the deepest point B in the reference area (the same reference area as the reference area 206) in the depth map is specified, and the depth Zb is specified. Then, the depth parameter Zs is determined according to the above equation (1) (see reference numeral 216). The deepest point may be designated by the user, and the shallowest point may be automatically determined.
図24には、深さパラメータ決定方法の第4例が示されている。カラー三次元画像200において最浅点A及び最深点Bを自動的に特定することにより、深さマップから最浅点Aの深さZa及び最深点Bの深さZbが決定される。その上で、上記(1)式に従って、深さパラメータZsが決定される(符号218参照)。 FIG. 24 shows a fourth example of the depth parameter determination method. By automatically specifying the shallowest point A and the deepest point B in the color three-dimensional image 200, the depth Za of the shallowest point A and the depth Zb of the deepest point B are determined from the depth map. Then, the depth parameter Zs is determined according to the above equation (1) (see reference numeral 218).
図25には、深さパラメータZsの変化に伴う混色関数の変化が示されている。範囲パラメータΔZを維持したまま、深さパラメータZsを変化させると、符号220a、符号220b、符号220cで示すように、混色関数が平行移動(シフト)する。その場合、混色範囲における重み変化率つまり勾配は不変である。もっとも、以下に説明するように、範囲パラメータΔZを深さパラメータZs等に応じて変化させるようにしてもよい。 FIG. 25 shows changes in the color mixing function accompanying changes in the depth parameter Zs. When the depth parameter Zs is changed while the range parameter ΔZ is maintained, the color mixing function is translated (shifted) as indicated by reference numerals 220a, 220b, and 220c. In this case, the weight change rate, that is, the gradient in the color mixture range is not changed. However, as described below, the range parameter ΔZ may be changed according to the depth parameter Zs and the like.
図26には、範囲パラメータ決定方法の第1例が示されている。横軸は深さZを示しており、縦軸は範囲ΔZを示している。その最大値はΔZmaxである。Zs0は深さパラメータZsの初期値又は標準値を示しており、Zs1は現在の深さパラメータZsを示している。このような前提の下、以下の(2)式に従って、現在の範囲パラメータΔZ1が決定される(符号224参照)。以下のβ1は係数である。 FIG. 26 shows a first example of the range parameter determination method. The horizontal axis indicates the depth Z, and the vertical axis indicates the range ΔZ. The maximum value is ΔZ max . Zs 0 indicates the initial value or standard value of the depth parameter Zs, and Zs 1 indicates the current depth parameter Zs. Under such a premise, the current range parameter ΔZ 1 is determined according to the following equation (2) (see reference numeral 224). The following β1 is a coefficient.
ΔZ1=ΔZmax−β1×|Zs1−Zs0| ・・・(2) ΔZ 1 = ΔZ max −β1 × | Zs 1 −Zs 0 | (2)
上記(2)式において、β1は係数である。但し、混色範囲の下限Z1及び上限Z2が0≦Z1,Z2≦MaxZの条件を満たすことが上記(2)式の前提となる。上記第1例において、範囲パラメータΔZmaxは任意の値を取り得るようにし、これに応じて係数β1を調整した上で(2)式を用いてΔZ1を決定するようにしてもよい。 In the above equation (2), β1 is a coefficient. However, the above equation (2) is premised on that the lower limit Z1 and the upper limit Z2 of the color mixture range satisfy the conditions of 0 ≦ Z1 and Z2 ≦ MaxZ. In the first example, the range parameter ΔZ max may take an arbitrary value, and ΔZ1 may be determined using the equation (2) after adjusting the coefficient β1 accordingly.
上記第1例によると、深さパラメータZsがその初期値又は標準値からずれればずれるほど、範囲パラメータΔZは小さくなる。つまり、混色変化が生じる深さ範囲が小さくなり、同時に、その範囲内での変化率が大きくなる。その変化の様子が図27に示されている。深さパラメータZsが深さゼロ又は深さMaxZに近付くに従って、符号226A,226B,226Cで示すように、混色範囲での変化率が急峻となっている。 According to the first example, the range parameter ΔZ decreases as the depth parameter Zs deviates from its initial value or standard value. That is, the depth range in which the color mixing change occurs is reduced, and at the same time, the rate of change within the range is increased. The state of the change is shown in FIG. As the depth parameter Zs approaches the depth zero or the depth MaxZ, the change rate in the color mixture range becomes steeper as indicated by reference numerals 226A, 226B, and 226C.
図28には、範囲パラメータ決定方法の第2例が示されている。横軸は深さZを示しており、縦軸は範囲ΔZを示している。関数228に示すように、深さパラメータZsが小さくなるに従って、範囲パラメータΔZが増大されている。その変化率を定数β2とすると、以下の(3)式によって、範囲パラメータΔZが決定される(符号230参照)。 FIG. 28 shows a second example of the range parameter determination method. The horizontal axis indicates the depth Z, and the vertical axis indicates the range ΔZ. As indicated by function 228, the range parameter ΔZ is increased as the depth parameter Zs decreases. When the rate of change is constant β2, the range parameter ΔZ is determined by the following equation (3) (see reference numeral 230).
ΔZ=β2(MaxZ−Zs) ΔZ = β2 (MaxZ−Zs)
上記の範囲パラメータΔZの変化に伴う混色関数の変化が図29に示されている。横軸が深さZを示しており、縦軸がフロント重みを示している。符号230A、230B、230Cで示すように、深さパラメータZsの増大に伴い、混色関数が左側へシフトしつつ、混色範囲内での変化率が緩和されている。 FIG. 29 shows the change of the color mixing function accompanying the change of the range parameter ΔZ. The horizontal axis indicates the depth Z, and the vertical axis indicates the front weight. As indicated by reference numerals 230A, 230B, and 230C, as the depth parameter Zs increases, the color mixture function shifts to the left, and the rate of change within the color mixture range is relaxed.
以上示したパラメータ決定方法は例示に過ぎず、上記以外の手法を利用して、深さパラメータZs及び範囲パラメータΔZが決定されてもよい、また、それらのパラメータに代えて他のパラメータ(例えば深さZ1,Z2)が自動的に決定されてもよい。混色関数として曲線からなる関数(例えばロジステック曲線)を利用してもよい。いずれにしても、混色関数を規定する複数のパラメータの内で少なくとも1つのパラメータを自動的に決定すればユーザーの負担を軽減できる。 The parameter determination methods described above are merely examples, and the depth parameter Zs and the range parameter ΔZ may be determined using a method other than the above, and other parameters (for example, depth) may be used instead of these parameters. Z1, Z2) may be automatically determined. A function composed of a curve (for example, a logistic curve) may be used as the color mixture function. In any case, if at least one parameter is automatically determined among a plurality of parameters that define the color mixing function, the burden on the user can be reduced.
パラメータ自動調整を行うタイミングとして、幾つかのタイミングをあげることができる。例えば、混色関数の調整を行うスイッチがオンされた時点の直後の画像更新タイミングでパラメータ自動調整が実行されてもよい。その後において、例えば、混色関数に関わる何等かの操作が行われたタイミング、画像が更新されたタイミング、一定の時間間隔をおいたタイミング、で自動的にパラメータ自動調整が実行されてもよい。 Several timings can be given as the timing for performing automatic parameter adjustment. For example, automatic parameter adjustment may be executed at the image update timing immediately after the switch for adjusting the color mixing function is turned on. Thereafter, for example, automatic parameter adjustment may be automatically performed at the timing when any operation related to the color mixing function is performed, the timing when the image is updated, and the timing at a certain time interval.
図30には、カラー処理部32の変形例が示されている。カラー処理部32は、フロント側変換テーブル232、バック側変換テーブル234及び重み付け合成器236を有している。重み付け合成器236には、上記同様に、深さパラメータZs及び範囲パラメータΔZ等のパラメータ群が与えられる。フロント側変換テーブル232及びバック側変換テーブル234はそれぞれルックアップテーブルとして構成される。フロント側変換テーブル232は、入力される輝度I及び深さZに基づいてメインカラーを決定するテーブルである。バック側変換テーブル234は、入力される輝度I及び深さZに基づいてサブカラーを決定するテーブルである。それらのカラーが重み付け合成器236において合成されて画素のカラーが決定される。カラー処理部32において、3つ以上のテーブルによって決定される3つのカラーを合成するようにしてもよい。 FIG. 30 shows a modification of the color processing unit 32. The color processing unit 32 includes a front side conversion table 232, a back side conversion table 234, and a weighting synthesizer 236. As described above, the weighting synthesizer 236 is provided with a parameter group such as a depth parameter Zs and a range parameter ΔZ. The front side conversion table 232 and the back side conversion table 234 are each configured as a lookup table. The front side conversion table 232 is a table for determining the main color based on the input luminance I and depth Z. The back side conversion table 234 is a table for determining a sub color based on the input luminance I and depth Z. These colors are combined in a weighting combiner 236 to determine the color of the pixel. The color processing unit 32 may combine three colors determined by three or more tables.
20 ボリュームレンダリング部、26 ガイド像生成部、28 パラメータ決定部、30 表示処理部、32 カラー処理部、46 輝度マップ、48 深さマップ(距離マップ)。
20 volume rendering unit, 26 guide image generating unit, 28 parameter determining unit, 30 display processing unit, 32 color processing unit, 46 luminance map, 48 depth map (distance map).
Claims (11)
深さに応じた色付け条件を定める関数に従って、前記輝度マップ及び前記深さマップからカラー三次元画像を生成するカラー処理手段と、
前記関数の内容又は作用を表す像として第1の深さ軸を有するガイド像を生成するガイド像生成手段と、
を含むことを特徴とする超音波画像処理装置。 Means for applying volume rendering to volume data acquired from a three-dimensional space in a living body, wherein the rendering means generates a luminance map and a depth map as a result of the volume rendering;
Color processing means for generating a color three-dimensional image from the luminance map and the depth map according to a function that defines coloring conditions according to depth;
Guide image generation means for generating a guide image having a first depth axis as an image representing the content or action of the function;
An ultrasonic image processing apparatus comprising:
前記ボリュームデータに基づいて、第1の深さ軸を有する断層画像を形成する断層画像形成手段を含み、
前記ガイド像は第2の深さ軸を有し、
前記第1の深さ軸と前記第2の深さ軸が平行になるように前記ガイド像が表示される、
ことを特徴とする超音波画像処理装置。 The apparatus of claim 1.
Including tomographic image forming means for forming a tomographic image having a first depth axis based on the volume data;
The guide image has a second depth axis;
The guide image is displayed so that the first depth axis and the second depth axis are parallel;
An ultrasonic image processing apparatus.
前記関数に含まれる深さパラメータの変化に応じて前記ガイド像の表示態様が変化する、
ことを特徴とする超音波画像処理装置。 The apparatus of claim 2.
The display mode of the guide image changes according to the change of the depth parameter included in the function.
An ultrasonic image processing apparatus.
前記関数によって深さ方向の混色範囲が規定され、
前記ガイド像は前記混色範囲の深さを表す少なくとも1つの深さマーカーを有し、
前記深さパラメータの変化に応じて前記深さマーカーが前記第2の深さ軸に沿って運動する、
ことを特徴とする超音波画像処理装置。 The apparatus of claim 3.
The function defines a color mixing range in the depth direction,
The guide image has at least one depth marker representing the depth of the color mixture range;
The depth marker moves along the second depth axis in response to a change in the depth parameter;
An ultrasonic image processing apparatus.
前記深さマーカーは前記混色範囲における中間深さを表す、
ことを特徴とする超音波画像処理装置。 The apparatus of claim 4.
The depth marker represents an intermediate depth in the color mixture range.
An ultrasonic image processing apparatus.
前記ガイド像は第1の深さマーカー及び第2の深さマーカーを有し、
前記第1の深さマーカー及び前記第2の深さマーカーは前記混色範囲の開始深さ及び終了深さを表す、
ことを特徴とする超音波画像処理装置。 The apparatus of claim 4.
The guide image has a first depth marker and a second depth marker,
The first depth marker and the second depth marker represent a start depth and an end depth of the color mixture range;
An ultrasonic image processing apparatus.
前記ガイド像は前記関数に与えられるメインカラー及びサブカラーを表す2つのカラー見本を有し、
前記2つのカラー見本は深さ方向に並んで表示される、
ことを特徴とする超音波画像処理装置。 The apparatus of claim 1.
The guide image has two color samples representing a main color and a sub color given to the function;
The two color samples are displayed side by side in the depth direction.
An ultrasonic image processing apparatus.
前記関数に含まれる深さパラメータに応じて前記2つのカラー見本の間の境界線が深さ方向に運動する、
ことを特徴とする超音波画像処理装置。 The apparatus of claim 7.
The boundary line between the two color samples moves in the depth direction according to the depth parameter included in the function,
An ultrasonic image processing apparatus.
前記ガイド像は前記関数によって生じる深さ方向のカラー変化を示すカラー変化見本を有する、
ことを特徴とする超音波画像処理装置。 The apparatus of claim 1.
The guide image has a color change sample showing a color change in the depth direction caused by the function,
An ultrasonic image processing apparatus.
前記カラー処理手段は、
前記カラー三次元画像を構成する画素ごとに、当該画素に対応する輝度の大きさに基づいてメインカラーを決定する手段と、
前記カラー三次元画像を構成する画素ごとに、当該画素に対応する輝度の大きさに基づいてサブカラーを決定する手段と、
前記カラー三次元画像を構成する画素ごとに、当該画素に対応する深さを前記関数に与えることにより決定される混合割合に従って前記メインカラーと前記サブカラーとを混合することにより当該画素に対応するカラーを決定する手段と、
を含むことを特徴とする超音波画像処理装置。 The apparatus of claim 1.
The color processing means includes
Means for determining a main color for each pixel constituting the color three-dimensional image based on a luminance level corresponding to the pixel;
Means for determining a sub-color for each pixel constituting the color three-dimensional image based on a luminance level corresponding to the pixel;
For each pixel constituting the color three-dimensional image, the main color and the sub-color are mixed according to a mixing ratio determined by giving a depth corresponding to the pixel to the function. Means for determining the color;
An ultrasonic image processing apparatus comprising:
前記超音波画像処理方法が、
生体内の三次元空間から取得されたボリュームデータに対してボリュームレンダリングを適用する工程であって、前記ボリュームレンダリングの結果として輝度マップ及び深さマップを生成する工程と、
深さに応じた色付け条件を定める関数に従って、前記輝度マップ及び前記深さマップからカラー三次元画像を生成する工程と、
前記関数の内容又は作用を表す像としてガイド像を生成する工程と、
前記カラー三次元画像と共に前記ガイド像を表示する工程と、
を含む、ことを特徴とするプログラム。
A program for causing an ultrasonic image processing apparatus to execute an ultrasonic image processing method,
The ultrasonic image processing method includes:
Applying volume rendering to volume data acquired from a three-dimensional space in a living body, generating a luminance map and a depth map as a result of the volume rendering;
Generating a color three-dimensional image from the luminance map and the depth map according to a function that defines coloring conditions according to depth;
Generating a guide image as an image representing the content or action of the function;
Displaying the guide image together with the color three-dimensional image;
The program characterized by including.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016135187A JP2018000779A (en) | 2016-07-07 | 2016-07-07 | Ultrasonic image processing device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2016135187A JP2018000779A (en) | 2016-07-07 | 2016-07-07 | Ultrasonic image processing device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2018000779A true JP2018000779A (en) | 2018-01-11 |
Family
ID=60946968
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2016135187A Pending JP2018000779A (en) | 2016-07-07 | 2016-07-07 | Ultrasonic image processing device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2018000779A (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2023032931A1 (en) * | 2021-09-02 | 2023-03-09 | 株式会社Luxonus | Image processing apparatus, image processing method, and recording medium |
| JP2023036499A (en) * | 2021-09-02 | 2023-03-14 | 株式会社Luxonus | Image processing apparatus, image processing method, and recording medium |
-
2016
- 2016-07-07 JP JP2016135187A patent/JP2018000779A/en active Pending
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2023032931A1 (en) * | 2021-09-02 | 2023-03-09 | 株式会社Luxonus | Image processing apparatus, image processing method, and recording medium |
| JP2023036499A (en) * | 2021-09-02 | 2023-03-14 | 株式会社Luxonus | Image processing apparatus, image processing method, and recording medium |
| JP7705144B2 (en) | 2021-09-02 | 2025-07-09 | 株式会社Luxonus | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND RECORDING MEDIUM |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN102458255B (en) | Ultrasonic diagnosis device, ultrasonic image processing device, ultrasonic image processing program, and ultrasonic image generation method | |
| US9101289B2 (en) | Ultrasonic diagnostic apparatus | |
| CN112272850B (en) | System and method for generating enhanced diagnostic images from 3D medical image data | |
| JP5848709B2 (en) | Ultrasonic diagnostic apparatus and ultrasonic image display method | |
| JP5495357B2 (en) | Image display method and medical image diagnostic system | |
| CN102753103B (en) | Ultrasonic diagnostic device and ultrasonic image display method | |
| CN102695458B (en) | Ultrasonic diagnostic device and ultrasonic image display method | |
| JP5525930B2 (en) | Ultrasound diagnostic device for generating and displaying 3D ultrasound images | |
| CN103108593B (en) | The display packing of diagnostic ultrasound equipment and ultrasonography | |
| WO2010024023A1 (en) | Ultrasound diagnostic apparatus and method of displaying ultrasound image | |
| CN111819465B (en) | System and method for adaptively configuring dynamic range for ultrasound image display | |
| CN103118600B (en) | Ultrasound diagnostic equipment and ultrasound image display method | |
| JP2018000779A (en) | Ultrasonic image processing device | |
| JP2018000780A (en) | Ultrasonic image processing device | |
| KR101014559B1 (en) | Ultrasound System and Method for Providing 3D Ultrasound Image | |
| CN110537936B (en) | Blood flow image processing device and method, and computer-readable storage medium | |
| JP6890677B2 (en) | A virtual light source embedded in a 3D volume and coupled to the crosshairs in the MPR diagram | |
| JP2019030575A (en) | Ultrasonic image processing apparatus and volume data processing method | |
| KR101117003B1 (en) | Ultrasound system and method of providing 3-dimensional ultrasound images using volume slices | |
| JP2003310607A (en) | Ultrasonic diagnostic equipment | |
| JP2017217207A (en) | Ultrasonic image processing apparatus | |
| JP6546107B2 (en) | Ultrasonic imaging system | |
| JP2009225917A (en) | Image processing device and image processing method | |
| JP2005278988A (en) | Ultrasonic image processing apparatus | |
| KR20110129828A (en) | Ultrasound diagnostic device and its control program |