[go: up one dir, main page]

JP2012071042A - Ultrasonic image diagnostic apparatus, ultrasonic image forming method, and program - Google Patents

Ultrasonic image diagnostic apparatus, ultrasonic image forming method, and program Download PDF

Info

Publication number
JP2012071042A
JP2012071042A JP2010219733A JP2010219733A JP2012071042A JP 2012071042 A JP2012071042 A JP 2012071042A JP 2010219733 A JP2010219733 A JP 2010219733A JP 2010219733 A JP2010219733 A JP 2010219733A JP 2012071042 A JP2012071042 A JP 2012071042A
Authority
JP
Japan
Prior art keywords
information
region
ultrasonic
sound speed
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2010219733A
Other languages
Japanese (ja)
Inventor
Kimito Katsuyama
公人 勝山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2010219733A priority Critical patent/JP2012071042A/en
Publication of JP2012071042A publication Critical patent/JP2012071042A/en
Abandoned legal-status Critical Current

Links

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

【課題】各組織の様々な性状情報および診断情報を求める超音波画像診断装置、超音波画像生成方法およびプログラムを提供する。
【解決手段】局所音速値と、予め設定された組織固有の音速の特徴である特徴情報とに基づいて、着目領域を2以上の分割領域に分割し、分割した着目領域の情報を領域情報として生成する領域分割部を有することにより、上記課題を解決する。
【選択図】図1
An ultrasonic diagnostic imaging apparatus, an ultrasonic image generation method, and a program for obtaining various property information and diagnostic information of each tissue are provided.
A region of interest is divided into two or more divided regions based on a local sound velocity value and feature information that is a characteristic of a sound velocity unique to a tissue set in advance, and information on the divided region of interest is used as region information. By having the area dividing unit to be generated, the above-described problem is solved.
[Selection] Figure 1

Description

本発明は、超音波を被検体に送信して反射波を受信し、画像を表示する超音波画像診断装置、超音波画像生成方法およびプログラムに関し、詳しくは、音速値および組織固有の音速の特徴に基づいて複数の領域に分割し、それぞれの分割領域について、組織性状情報を求めて表示する超音波画像診断装置、超音波画像生成方法およびプログラムに関するものである。   The present invention relates to an ultrasonic diagnostic imaging apparatus, an ultrasonic image generation method, and a program for transmitting an ultrasonic wave to a subject, receiving a reflected wave, and displaying an image, and more specifically, features of a sound speed value and a sound speed unique to a tissue. The present invention relates to an ultrasonic diagnostic imaging apparatus, an ultrasonic image generation method, and a program that divide into a plurality of regions based on the above, and obtain and display tissue property information for each divided region.

従来から、超音波画像の形態画像の1つとして、形状を表すBモード画像(超音波エコーの振幅を点の輝度により表した画像)が用いられている。しかし、形状以外の情報も診断に用いたいとの要望があり、そのうちの1つとして音速が挙げられる。
音速は、医師が超音波診断を行うにあたり、生体組織、病変およびその進行度等を診断するために有効な音響情報であることから、種々の計測手法によって被検体の音速を計測することが提案されている。また、被検体内の一部における音速値(以下、局所音速値という)を測定する試みもなされている。
Conventionally, as one of the morphological images of the ultrasonic image, a B-mode image representing the shape (an image in which the amplitude of the ultrasonic echo is represented by the luminance of a point) has been used. However, there is a desire to use information other than the shape for diagnosis, and one of them is the speed of sound.
Since the speed of sound is effective acoustic information for diagnosing living tissues, lesions and their progress, etc., when doctors make an ultrasound diagnosis, it is proposed to measure the sound speed of a subject using various measurement methods. Has been. Attempts have also been made to measure sound velocity values (hereinafter referred to as local sound velocity values) in a part of the subject.

例えば、特許文献1には、複数の送信用および受信用超音波トランスデューサを用いて、これらの角度および間隔を変えることで、超音波ビームの交差領域(関心領域)を生体内の深さ方向に移動させ、また、生体の体表に沿う方向にも交差領域を移動させて局所音速値を求めることにより、生体内の局所音速値の2次元分布を求めることが提案されている。   For example, in Patent Document 1, by using a plurality of transmitting and receiving ultrasonic transducers and changing their angles and intervals, the intersecting region (region of interest) of the ultrasonic beam is set in the depth direction in the living body. It has been proposed to obtain a two-dimensional distribution of local sound velocity values in a living body by moving the intersection region in the direction along the body surface of the living body and obtaining a local sound velocity value.

特許文献2には、仮想音速分布に基づき、送波振動子と受波振動子とのそれぞれについて照射角度および入射角度を変化させて音線経路を設定し、測定された実際の経過時間と、設定した音線経路の所要時間との誤差データを求め、誤差データを最小にするように音線分布を修正し、修正された音線分布により音速を求めることが提案されている。   In Patent Document 2, based on the virtual sound velocity distribution, the sound ray path is set by changing the irradiation angle and the incident angle for each of the transmitting transducer and the receiving transducer, and the measured actual elapsed time, It has been proposed to obtain error data with respect to the set time required for the sound ray path, correct the sound ray distribution so as to minimize the error data, and obtain the sound speed from the corrected sound ray distribution.

特許文献3には、ホイヘンスの原理を用いて、被検体内の着目領域よりも浅い領域に設定された格子点と、着目領域における最適音速値を判定し、着目領域における最適音速値に基づいて、超音波を着目領域に送信したときに着目領域から受信される受信波を演算し、着目領域における仮定音速を仮定して、仮定音速に基づいて各格子点における最適音速値から求めた各格子点からの受信波を合成して合成受信波を得て、受信波と合成受信波に基づいて着目領域における局所音速値を判定する超音波診断装置が開示されている。   Patent Document 3 uses the Huygens principle to determine lattice points set in a region shallower than the region of interest in the subject and the optimum sound speed value in the region of interest, and based on the optimum sound speed value in the region of interest. Each grid obtained from the optimum sound speed value at each grid point based on the assumed sound speed by calculating the received wave received from the target area when the ultrasonic wave is transmitted to the target area and assuming the assumed sound speed in the target area An ultrasonic diagnostic apparatus is disclosed in which a received wave from a point is synthesized to obtain a synthesized received wave, and a local sound velocity value in a region of interest is determined based on the received wave and the synthesized received wave.

特開昭62−254740号公報JP 62-254740 A 特開平5−95946号公報Japanese Patent Laid-Open No. 5-95946 特開2010−99452号公報JP 2010-99452 A

しかしながら、特許文献1〜3では、被検体の局所的な音速分布情報は得られるが、得られた音速分布情報を医師が見やすいように、つまり、診断に活用できる情報として、どのように提示するかについては開示されていない。   However, in Patent Documents 1 to 3, although the local sound speed distribution information of the subject can be obtained, how the obtained sound speed distribution information is presented as information that can be used for diagnosis so that a doctor can easily see it. Is not disclosed.

本発明の目的は、局所音速値と予め設定された組織固有の音速の特徴である特徴情報とに基づいて着目領域を分割し、分割された各分割領域の組織の種類を求め、さらに、局所音速値の分布の特徴を表す組織性状情報を求めることで、局所音速値のみでは得られない各組織の様々な性状情報等を医師に提供し、その診断に資する超音波画像診断装置、超音波画像生成方法およびプログラムを提供することにある。   An object of the present invention is to divide a region of interest based on a local sound velocity value and feature information that is a characteristic of a sound velocity unique to a tissue set in advance, obtain a tissue type of each divided region, By obtaining tissue property information that represents the characteristics of the distribution of sound velocity values, it provides a doctor with various property information of each tissue that cannot be obtained only by local sound velocity values, and an ultrasound diagnostic imaging device that contributes to the diagnosis. An object is to provide an image generation method and a program.

上記課題を解決するために、本発明は、超音波を被検体に送信して反射波を受信し超音波検出信号を出力する超音波探触子を有し、着目領域の局所音速値を求める超音波画像診断装置であって、前記局所音速値と、予め設定された組織固有の音速の特徴である特徴情報とに基づいて、前記着目領域を2以上の分割領域に分割し、分割した前記着目領域の情報を領域情報として生成する領域分割部を有することを特徴とする超音波画像診断装置を提供する。   In order to solve the above problems, the present invention has an ultrasonic probe that transmits an ultrasonic wave to a subject, receives a reflected wave, and outputs an ultrasonic detection signal, and obtains a local sound velocity value of a region of interest. In the ultrasonic diagnostic imaging apparatus, the region of interest is divided into two or more divided regions based on the local sound velocity value and feature information that is a characteristic of the sound velocity inherent to the tissue, and the divided region There is provided an ultrasonic diagnostic imaging apparatus having a region dividing unit that generates information on a region of interest as region information.

また、前記領域分割部は、前記局所音速値と前記特徴情報とに基づいて、前記着目領域を2以上の分割領域に分割し、それぞれの前記分割領域が該当する組織を決定することが好ましい。   Moreover, it is preferable that the said area | region division part divides | segments the said attention area | region into two or more division areas based on the said local sound speed value and the said characteristic information, and determines the structure | tissue to which each said division area corresponds.

さらに、前記領域情報および前記局所音速値に基づいて、前記局所音速値の分布の特徴を表す組織性状情報を、1以上の前記分割領域について生成する組織性状情報生成部を有することが好ましい。
さらに、前記組織性状情報に基づいて、前記分割領域のそれぞれにおける、病変の種類、および病変の程度のうち1以上を含む診断情報を生成する診断情報生成部を有することが好ましい。
Furthermore, it is preferable to have a tissue property information generating unit that generates tissue property information representing characteristics of the distribution of the local sound velocity values for one or more of the divided regions based on the region information and the local sound velocity values.
Furthermore, it is preferable to have a diagnostic information generation unit that generates diagnostic information including one or more of the type of lesion and the degree of lesion in each of the divided regions based on the tissue property information.

また、前記分割領域のうち、一方の前記組織性状情報は、さらに、他方の前記組織性状情報が反映された情報であることが好ましい。
また、前記組織性状情報は、さらに、ユーザが設定した情報が反映された情報であることが好ましい。
Moreover, it is preferable that one of the tissue property information in the divided region is information reflecting the other tissue property information.
Further, it is preferable that the tissue property information is information reflecting information set by a user.

また、前記組織性状情報は、さらに、前記分割領域の組織の情報を反映して生成することが好ましい。
また、前記組織性状情報は、再度、前記診断情報を反映して生成することが好ましい。
Further, it is preferable that the tissue property information is further generated by reflecting the information on the tissue in the divided region.
Further, it is preferable that the tissue property information is generated again reflecting the diagnostic information.

また、上記課題を解決するために、本発明は、超音波を被検体に送信して反射波を受信し、着目領域の局所音速値を求める超音波画像生成方法であって、前記局所音速値と、予め設定された組織固有の音速の特徴である特徴情報とに基づいて、前記着目領域を2以上の分割領域に分割し、分割した前記着目領域の情報を領域情報として生成する領域分割ステップを有することを特徴とする超音波画像生成方法を提供する。   In order to solve the above problem, the present invention provides an ultrasonic image generation method for obtaining a local sound speed value of a region of interest by transmitting an ultrasonic wave to a subject and receiving a reflected wave, wherein the local sound speed value is obtained. A region dividing step of dividing the region of interest into two or more divided regions on the basis of feature information that is a characteristic of the speed of sound unique to the tissue set in advance, and generating information on the divided region of interest as region information A method for generating an ultrasonic image is provided.

また、上記課題を解決するために、本発明は、上記に記載の超音波画像生成方法の各ステップを手順としてコンピュータに実行させるためのプログラムを提供する。   Moreover, in order to solve the said subject, this invention provides the program for making a computer perform as a procedure each step of the ultrasonic image generation method described above.

本発明によれば、分割された各領域について局所音速値だけでなく、分割された各領域の組織の種類を表す領域組織情報、および局所音速値の分布の特徴を表す組織性状情報を求めることができ、さらに病変の種類、および病変の程度といった医師の診断に資する診断情報も提供することができる。   According to the present invention, not only the local sound speed value for each divided area, but also the area tissue information indicating the tissue type of each divided area and the tissue property information indicating the characteristics of the distribution of local sound speed values are obtained. Furthermore, diagnostic information that contributes to the diagnosis of the doctor such as the type of lesion and the degree of lesion can be provided.

本発明に係る超音波画像生成方法を実施する、超音波画像診断装置の一実施形態の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of one Embodiment of the ultrasonic image diagnostic apparatus which implements the ultrasonic image generation method which concerns on this invention. 本発明に係る局所音速値の演算処理を模式的に示す説明図である。It is explanatory drawing which shows typically the calculation process of the local sound speed value which concerns on this invention. (a),(b)は、設定音速プロファイルの一例を示すグラフである。(A), (b) is a graph which shows an example of a setting sound speed profile. 本発明に係る一実施形態の超音波画像生成方法の処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a process of the ultrasonic image generation method of one Embodiment which concerns on this invention. 図4に示すフローチャートの、続きを示すフローチャートである。5 is a flowchart showing a continuation of the flowchart shown in FIG. 4. 環境音速値を決定する処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a process which determines an environmental sound speed value. 本発明に係る局所音速値の演算処理の一例を示すフローチャートである。It is a flowchart which shows an example of the calculation process of the local sound speed value which concerns on this invention. 着目領域の設定の一例を示す説明図である。It is explanatory drawing which shows an example of the setting of an attention area. 領域分割の一例を示す説明図である。It is explanatory drawing which shows an example of area division. 音速画像の各分割領域に、組織名称が重畳表示された表示の一例を示す説明図である。It is explanatory drawing which shows an example of the display by which the tissue name was superimposed and displayed on each division area of a sound speed image. 音速画像の各分割領域に、組織名称および組織性状情報が重畳表示された表示の一例を示す説明図である。It is explanatory drawing which shows an example of the display on which the tissue name and the tissue property information were superimposed and displayed on each divided area of the sound velocity image. 音速画像の各分割領域に、組織名称、組織性状情報、および診断情報(病変,進行度)が重畳表示された表示の一例を示す説明図である。It is explanatory drawing which shows an example of the display by which the tissue name, the tissue property information, and the diagnostic information (lesion, progress degree) were superimposed and displayed on each divided region of the sound velocity image.

本発明に係る超音波画像生成方法を実施する本発明に係る超音波画像診断装置を、添付の図面に示す好適実施形態に基づいて以下に詳細に説明する。なお、着目領域の指定方法は特に限定されないが、以下の説明では一例として、Bモード画像上で着目領域が指定され、また、当該Bモード画像の着目領域における各画素に対応して局所音速値を算出する場合について説明する。   An ultrasonic diagnostic imaging apparatus according to the present invention that implements an ultrasonic image generation method according to the present invention will be described in detail below based on preferred embodiments shown in the accompanying drawings. Note that the method of specifying the region of interest is not particularly limited, but in the following description, as an example, the region of interest is specified on the B-mode image, and the local sound speed value corresponding to each pixel in the region of interest of the B-mode image. The case of calculating will be described.

図1は、本発明に係る超音波画像診断装置の構成を表す一実施形態のブロック図である。
図1に示す超音波画像診断装置10は、操作部12、制御部14、超音波探触子16、送受信部20、信号処理部22、音速値算出部24、音速画像生成部26、領域分割部27、組織性状情報生成部34、診断情報生成部36、画像処理部38、表示部40、およびRFデータ記録再生部42によって構成される。
FIG. 1 is a block diagram of an embodiment showing a configuration of an ultrasonic diagnostic imaging apparatus according to the present invention.
1 includes an operation unit 12, a control unit 14, an ultrasonic probe 16, a transmission / reception unit 20, a signal processing unit 22, a sound speed value calculation unit 24, a sound speed image generation unit 26, and a region division. A unit 27, a tissue property information generation unit 34, a diagnosis information generation unit 36, an image processing unit 38, a display unit 40, and an RF data recording / reproducing unit 42.

また、音速値算出部24は、環境音速値算出部44と、局所音速値算出部46とによって構成される。環境音速値算出部44は、フォーカス指標算出部48、環境音速プロファイル生成部50、および環境音速値決定部52によって構成され、局所音速値算出部46は、仮想受信波・仮想合成受信波誤差算出部54、誤差プロファイル生成部56、および局所音速値決定部58によって構成される。
また、領域分割部27は、画素組織決定部28、着目領域分割部30、分割領域組織決定部32によって構成される。
The sound speed value calculation unit 24 includes an environmental sound speed value calculation unit 44 and a local sound speed value calculation unit 46. The environmental sound speed value calculation unit 44 includes a focus index calculation unit 48, an environmental sound speed profile generation unit 50, and an environmental sound speed value determination unit 52. The local sound speed value calculation unit 46 calculates a virtual received wave / virtual synthesized received wave error. Unit 54, error profile generation unit 56, and local sound velocity value determination unit 58.
The region dividing unit 27 includes a pixel organization determining unit 28, a region of interest dividing unit 30, and a divided region organization determining unit 32.

操作部12は、超音波画像診断装置10の各種操作をオペレータが行うためのものであり、操作情報を出力する。操作部12の具体的な態様には特に限定はなく、キーボード、マウス、タッチパネルなど、公知の各種の操作機器を用いればよい。   The operation unit 12 is for an operator to perform various operations of the ultrasonic diagnostic imaging apparatus 10 and outputs operation information. The specific mode of the operation unit 12 is not particularly limited, and various known operation devices such as a keyboard, a mouse, and a touch panel may be used.

制御部14は、超音波画像診断装置10の各部の動作を制御するためのものである。また、操作情報に従って各種処理が実施されるように、各部に対して制御信号(CTL)が出力される。また、環境音速値を求めるための設定音速または受信遅延パターンを、後述する送受信部20に設定する。   The control unit 14 is for controlling the operation of each unit of the ultrasonic diagnostic imaging apparatus 10. In addition, a control signal (CTL) is output to each unit so that various processes are performed according to the operation information. In addition, a set sound speed or a reception delay pattern for obtaining the environmental sound speed value is set in the transmission / reception unit 20 described later.

超音波探触子16は、被検体に当接させて用いるプローブであり、1次元または2次元のトランスデューサアレイを構成する複数の超音波トランスデューサ18を備えている。超音波トランスデューサ18では、送受信部20から印加される駆動信号に基づいて超音波ビームが被検体に送信されると共に、被検体から反射される超音波エコーが受信されて検出信号が出力される。   The ultrasonic probe 16 is a probe used in contact with a subject, and includes a plurality of ultrasonic transducers 18 constituting a one-dimensional or two-dimensional transducer array. The ultrasonic transducer 18 transmits an ultrasonic beam to the subject based on the drive signal applied from the transmission / reception unit 20, receives an ultrasonic echo reflected from the subject, and outputs a detection signal.

超音波トランスデューサ18は、圧電性を有する材料(圧電体)の両端に電極が形成されて構成された振動子を含んでいる。上記振動子を構成する圧電体としては、例えば、PZT(チタン酸ジルコン酸鉛:Pb (lead) zirconate titanate)のような圧電セラミック、PVDF(ポリフッ化ビニリデン:polyvinylidene difluoride)のような高分子圧電素子を用いることができる。上記振動子の電極に電気信号を送って電圧を印加すると圧電体が伸縮し、この圧電体の伸縮により各振動子において超音波が発生する。例えば、振動子の電極にパルス状の電気信号を送るとパルス状の超音波が発生し、振動子の電極に連続波の電気信号を送ると連続波の超音波が発生する。そして、各振動子において発生した超音波が合成されて超音波ビームが形成される。また、各振動子により超音波が受信されると、各振動子の圧電体が伸縮して電気信号を発生する。各振動子において発生した電気信号は、超音波の検出信号として送受信部20に出力される。   The ultrasonic transducer 18 includes a vibrator having electrodes formed on both ends of a piezoelectric material (piezoelectric body). Examples of the piezoelectric body constituting the vibrator include a piezoelectric ceramic such as PZT (lead zirconate titanate) and a polymer piezoelectric element such as PVDF (polyvinylidene difluoride). Can be used. When an electric signal is sent to the electrodes of the vibrator and a voltage is applied, the piezoelectric body expands and contracts, and ultrasonic waves are generated in each vibrator by the expansion and contraction of the piezoelectric body. For example, when a pulsed electric signal is sent to the electrode of the vibrator, a pulsed ultrasonic wave is generated, and when a continuous wave electric signal is sent to the electrode of the vibrator, a continuous wave ultrasonic wave is generated. Then, the ultrasonic waves generated in the respective vibrators are combined to form an ultrasonic beam. Further, when an ultrasonic wave is received by each vibrator, the piezoelectric body of each vibrator expands and contracts to generate an electric signal. The electrical signal generated in each transducer is output to the transmission / reception unit 20 as an ultrasonic detection signal.

なお、超音波トランスデューサ18としては、超音波変換方式の異なる複数種類の素子を用いることも可能である。例えば、超音波を送信する素子として上記圧電体により構成される振動子を用いて、超音波を受信する素子として光検出方式の超音波トランスデューサを用いるようにしてもよい。ここで、光検出方式の超音波トランスデューサとは、超音波信号を光信号に変換して検出するものであり、例えば、ファブリーペロー共振器又はファイバブラッググレーティングである。   As the ultrasonic transducer 18, a plurality of types of elements having different ultrasonic conversion methods can be used. For example, a transducer constituted by the piezoelectric body may be used as an element that transmits ultrasonic waves, and an optical transducer of an optical detection type may be used as an element that receives ultrasonic waves. Here, the light detection type ultrasonic transducer converts an ultrasonic signal into an optical signal for detection, and is, for example, a Fabry-Perot resonator or a fiber Bragg grating.

送受信部20は、送信回路、受信回路、およびA/D変換器を備えている。
送信回路は、制御部14からの制御信号に応じて駆動信号を生成して、該駆動信号を超音波トランスデューサ18に印加する。このとき、送信回路は、制御部14によって選択された送信遅延パターンに基づいて、各超音波トランスデューサ18に印加する駆動信号を遅延させる。ここで、送信回路は、複数の超音波トランスデューサ18から送信される超音波が超音波ビームを形成するように、各超音波トランスデューサ18に駆動信号を印加するタイミングを調整する(遅延させる)。なお、複数の超音波トランスデューサ18から一度に送信される超音波が被検体の撮像領域全体に届くように、駆動信号を印加するタイミングを調節するようにしてもよい。
The transmission / reception unit 20 includes a transmission circuit, a reception circuit, and an A / D converter.
The transmission circuit generates a drive signal in accordance with a control signal from the control unit 14 and applies the drive signal to the ultrasonic transducer 18. At this time, the transmission circuit delays the drive signal applied to each ultrasonic transducer 18 based on the transmission delay pattern selected by the control unit 14. Here, the transmission circuit adjusts (delays) the timing of applying the drive signal to each ultrasonic transducer 18 so that the ultrasonic waves transmitted from the plurality of ultrasonic transducers 18 form an ultrasonic beam. Note that the timing of applying the drive signal may be adjusted so that the ultrasonic waves transmitted from the plurality of ultrasonic transducers 18 reach the entire imaging region of the subject.

受信回路は、各超音波トランスデューサ18から出力される超音波検出信号を受信して増幅する。各超音波トランスデューサ18と被検体内の超音波反射源との間の距離がそれぞれ異なるため、各超音波トランスデューサ18に反射波が到達する時間は異なる。受信回路は遅延回路を備えており、制御部14によって選択された音速(以下、仮定音速という。)または音速の分布に基づいて設定される受信遅延パターンに従って、反射波の到達時刻の差(遅延時間)に相当する分、各検出信号を遅延させる。
次に、受信回路は、遅延時間を与えた検出信号を整合加算することにより受信フォーカス処理を行う。超音波反射源Xと異なる位置に別の超音波反射源がある場合には、別の超音波反射源からの超音波検出信号は到達時刻が異なるので、加算回路で加算することにより、別の超音波反射源からの超音波検出信号の位相が打ち消し合う。これにより、超音波反射源Xからの受信信号が最も大きくなり、フォーカスが合う。この受信フォーカス処理によって、超音波エコーの焦点が絞り込まれた音線信号(以下、RF信号という。)が形成される。
The receiving circuit receives and amplifies the ultrasonic detection signal output from each ultrasonic transducer 18. Since the distances between the ultrasonic transducers 18 and the ultrasonic wave reflection sources in the subject are different, the time for the reflected wave to reach the ultrasonic transducers 18 is different. The reception circuit includes a delay circuit, and the difference (delay in arrival time) of the reflected wave according to the reception delay pattern set based on the sound speed selected by the control unit 14 (hereinafter referred to as assumed sound speed) or the distribution of sound speed. Each detection signal is delayed by an amount corresponding to (time).
Next, the reception circuit performs reception focus processing by matching and adding the detection signals given delay times. When there is another ultrasonic reflection source at a position different from the ultrasonic reflection source X, the arrival time of the ultrasonic detection signal from the other ultrasonic reflection source is different. The phases of the ultrasonic detection signals from the ultrasonic reflection sources cancel each other. As a result, the received signal from the ultrasonic wave reflection source X becomes the largest and is focused. By this reception focus processing, a sound ray signal (hereinafter referred to as an RF signal) in which the focus of the ultrasonic echo is narrowed is formed.

A/D変換器では、受信回路から出力されるアナログのRF信号がデジタルRF信号(以下、RFデータという。)に変換され出力される。ここで、RFデータには、受信波(搬送波)の位相情報が含まれている。   In the A / D converter, an analog RF signal output from the receiving circuit is converted into a digital RF signal (hereinafter referred to as RF data) and output. Here, the RF data includes phase information of the received wave (carrier wave).

信号処理部22では、RFデータに対して、STC(Sensitivity Time gain Control)によって、超音波の反射位置の深度に応じて距離による減衰の補正がされた後、包絡線検波処理が施され、Bモード画像データが生成され出力される。   In the signal processing unit 22, the RF data is subjected to correction of attenuation by distance according to the depth of the ultrasonic reflection position by STC (Sensitivity Time gain Control), and then subjected to envelope detection processing. Mode image data is generated and output.

音速値算出部24では、局所音速値を得たい領域について、着目領域が指定され、着目領域指定情報が出力される。着目領域は、例えば、Bモード画像上で指定されることができ、Bモード画像全体が初期設定にて自動的に設定されるようにしてもよい。   The sound velocity value calculation unit 24 designates a region of interest for a region where a local sound velocity value is to be obtained, and outputs region-of-interest designation information. The region of interest can be specified on a B-mode image, for example, and the entire B-mode image may be automatically set by default.

フォーカス指標算出部48には、設定音速ごとのBモード画像データおよびRFデータが入力され、Bモード画像の画素ごとに、環境音速値を求めるために必要な設定音速ごとのフォーカス指標が算出される。ある設定音速についてフォーカス指標が算出されると、設定音速を変更してフォーカス指標が算出される。つまり、全ての設定音速についてフォーカス指標が算出され出力される。フォーカス指標としては、例えば、Bモード画像データからは画像のコントラスト、シャープネス、あるいは各画素における超音波検出信号の周期または振幅が用いられ、RFデータからはビーム幅(半値幅)が用いられる。   The focus index calculation unit 48 receives B-mode image data and RF data for each set sound speed, and calculates a focus index for each set sound speed necessary for obtaining an environmental sound speed value for each pixel of the B-mode image. . When the focus index is calculated for a certain set sound speed, the focus index is calculated by changing the set sound speed. That is, focus indexes are calculated and output for all set sound speeds. As the focus index, for example, the contrast or sharpness of the image is used from the B-mode image data, or the period or amplitude of the ultrasonic detection signal at each pixel, and the beam width (half-value width) is used from the RF data.

環境音速プロファイル生成部50には、Bモード画像の画素ごとに全ての設定音速についてのフォーカス指標が入力される。入力されたフォーカス指標は、横軸を設定音速、縦軸をフォーカス指標としたグラフにプロットされ、設定音速プロファイル(以下、環境音速プロファイルという)が生成され出力される。   A focus index for all set sound speeds is input to the environmental sound speed profile generation unit 50 for each pixel of the B-mode image. The input focus index is plotted on a graph with the horizontal axis indicating the set sound speed and the vertical axis indicating the focus index, and a set sound speed profile (hereinafter referred to as an environmental sound speed profile) is generated and output.

環境音速値決定部52には、Bモード画像の画素ごとに求められた環境音速プロファイルが入力される。入力された環境音速プロファイルに基づき、各画素の最適音速値(以下、環境音速値という)が決定され出力される。ここで、最適音速値(環境音速値)とは、画像のコントラスト、シャープネスが最も高くなる音速値、およびビーム幅が最も狭くなる音速値であり、各画素における実際の音速値(局所音速値)とは必ずしも一致しない。
なお、環境音速値を求める方法は、他にも、例えば画像のコントラスト、スキャン方向の空間周波数、分散などから判定する方法(例えば、特開平8−317926号公報)を用いてもよい。
The environmental sound speed value determination unit 52 receives the environmental sound speed profile obtained for each pixel of the B-mode image. Based on the input environmental sound speed profile, the optimum sound speed value of each pixel (hereinafter referred to as the environmental sound speed value) is determined and output. Here, the optimum sound speed value (environmental sound speed value) is the sound speed value at which the contrast, sharpness is highest, and the sound speed value at which the beam width is the narrowest, and the actual sound speed value (local sound speed value) at each pixel. Does not necessarily match.
In addition, as a method for obtaining the environmental sound speed value, for example, a method of determining from the contrast of the image, the spatial frequency in the scanning direction, dispersion, and the like (for example, JP-A-8-317926) may be used.

仮想受信波・仮想合成受信波誤差算出部54には、Bモード画像データおよび環境音速値が入力され、Bモード画像の画素ごとに、局所音速値を求めるために必要な仮の局所音速ごとの、仮想受信波と仮想合成受信波との誤差が算出される。つまり、全ての仮の局所音速について仮想受信波と仮想合成受信波との誤差が算出され出力される。   The virtual received wave / virtual synthesized received wave error calculation unit 54 receives the B-mode image data and the environmental sound velocity value, and for each temporary local sound velocity necessary for obtaining the local sound velocity value for each pixel of the B-mode image. The error between the virtual received wave and the virtual combined received wave is calculated. That is, the error between the virtual received wave and the virtual synthesized received wave is calculated and output for all temporary local sound velocities.

誤差プロファイル生成部56には、Bモード画像の画素ごとに全ての仮の局所音速について、仮想受信波と仮想合成受信波との誤差が入力される。入力された仮想受信波と仮想合成受信波との誤差は、横軸を仮の局所音速、縦軸を仮想受信波と仮想合成受信波との誤差としたグラフにプロットされ、誤差プロファイルが生成され出力される。   The error profile generation unit 56 receives an error between the virtual received wave and the virtual synthesized received wave for all temporary local sound velocities for each pixel of the B-mode image. The error between the input virtual received wave and the virtual synthesized received wave is plotted in a graph with the horizontal axis representing the tentative local sound velocity and the vertical axis representing the error between the virtual received wave and the virtual synthesized received wave to generate an error profile. Is output.

局所音速値決定部58には、Bモード画像の画素ごとに求められた誤差プロファイルが入力される。入力された誤差プロファイルに基づき、画素ごとの局所音速値が決定され出力される。   The local sound speed value determination unit 58 receives an error profile obtained for each pixel of the B-mode image. Based on the input error profile, a local sound velocity value for each pixel is determined and output.

ここで、局所音速値の演算処理について説明する。
図2は、局所音速値の演算処理を模式的に示す図である。
Here, the local sound speed value calculation processing will be described.
FIG. 2 is a diagram schematically showing a local sound speed value calculation process.

図2(b)に示すように、被検体OBJ内の着目領域ROIを代表する格子点をXROI、格子点XROIよりも浅い(即ち、超音波トランスデューサ18に近い)位置にXY方向に等間隔で配置された格子点をA1,A2,…とし、少なくとも格子点XROIと各格子点A1,A2,…との間の音速はそれぞれ一定と仮定する。 As shown in FIG. 2B, the lattice point representing the region of interest ROI in the subject OBJ is X ROI , shallower than the lattice point X ROI (that is, close to the ultrasonic transducer 18) in the XY direction, etc. Assume that the lattice points arranged at intervals are A1, A2,..., And at least the sound speed between the lattice point XROI and each lattice point A1, A2,.

本例では、格子点A1,A2,…からの受信波(それぞれWA1,WA2,…)の(T及び遅延時間ΔT)が既知として、格子点XROIと格子点A1,A2,…の位置関係から格子点XROIにおける局所音速値を求める。具体的には、ホイヘンスの原理により、格子点XROIからの受信波Wと格子点A1,A2,…からの受信波を仮想的に合成した受信波WSUMが一致することを利用する。受信波Wと仮想合成受信波WSUMとの差が最小になる仮定音速の値を、格子点XROIにおける局所音速値とする。 In this example, it is assumed that (T and delay time ΔT) of received waves from the lattice points A1, A2,... (W A1 , W A2 ,...) Are known, and the lattice points X ROI and the lattice points A1, A2,. A local sound velocity value at the lattice point X ROI is obtained from the positional relationship. Specifically, the principle of Huygens, received wave W X and the lattice point from the lattice point X ROI A1, A2, utilize the received wave W SUM obtained by synthesizing the received waves from ... virtually coincide. The assumed sound speed value at which the difference between the received wave W X and the virtual synthesized received wave W SUM is minimized is defined as the local sound speed value at the lattice point X ROI .

ここで、格子点XROIにおける局所音速値を求めるときの演算に使用する格子点A1,A2,…の範囲及び個数は予め決めておく。ここで、局所音速値演算に使用する格子点の範囲が広いと局所音速値の誤差が大きくなり、狭いと仮想受信波との誤差が大きくなるため、格子点の範囲はこれらの兼ね合いで決める。 Here, the lattice points used in the calculation of the time for obtaining the local sound speed value at the lattice point X ROI A1, A2, ... scope and number of determined in advance. Here, if the range of the lattice point used for the local sound speed value calculation is wide, the error of the local sound speed value becomes large, and if it is narrow, the error with the virtual received wave becomes large. Therefore, the range of the lattice point is determined based on these factors.

格子点A1,A2,…のX方向の間隔は、分解能と処理時間の兼ね合いで決定される。格子点A1,A2,…のX方向の間隔は、一例で1mmから1cmである。   The interval in the X direction between the lattice points A1, A2,... Is determined by the balance between the resolution and the processing time. The distance between the lattice points A1, A2,... In the X direction is, for example, 1 mm to 1 cm.

格子点A1,A2,…のY方向の間隔が狭いと誤差計算における誤差が大きくなり、広いと局所音速値の誤差が大きくなる。格子点A1,A2,…のY方向の間隔は、超音波画像の画像分解能の設定に基づいて決定される。格子点A1,A2,…のY方向の間隔は、一例で1cmである。   If the distance between the grid points A1, A2,... In the Y direction is narrow, the error in the error calculation increases, and if it is wide, the error in the local sound speed value increases. The interval in the Y direction between the lattice points A1, A2,... Is determined based on the setting of the image resolution of the ultrasonic image. An interval in the Y direction between the lattice points A1, A2,... Is 1 cm as an example.

なお、格子点A1,A2,…の間隔が広い場合、合成波の演算が困難になるため、補間によって細かい格子点を生成するようにすればよい。   Note that when the intervals between the lattice points A1, A2,... Are wide, it is difficult to calculate the composite wave, and fine lattice points may be generated by interpolation.

音速画像生成部26には、着目領域(Bモード画像)の画素ごとに求められた局所音速値、および後述する組織性状情報が入力される。音速画像生成部26では、局所音速値に対応した値、例えば、各画素の音速値(通常の音速画像)、着目領域全体または分割領域の音速の平均値あるいは最小値との差分(差分音速画像)、および、分散によって規格化された音速値(分散音速画像)が、Bモード画像の各画素に割り当てられて音速画像が生成され、音速画像データとして出力される。なお、音速画像生成部26に診断情報が入力され、診断情報に基づく音速の平均値との差分を用いてもよいし、局所音速値に対応した値を階調表現しやすいように再度調整を行ってもよい。また、別途設定された基準領域における局所音速値の平均値、オペレータにより設定された局所音速値の平均値、または診断情報に基づく局所音速値の平均値との差分の分布の画像(差分音速画像)としてもよい。   The sound velocity image generation unit 26 receives a local sound velocity value obtained for each pixel of the region of interest (B mode image) and tissue property information described later. In the sound velocity image generation unit 26, a difference (difference sound velocity image) between a value corresponding to the local sound velocity value, for example, a sound velocity value (normal sound velocity image) of each pixel, an average value or a minimum value of sound velocity of the entire region of interest or the divided region ) And a sound speed value (dispersed sound speed image) normalized by dispersion is assigned to each pixel of the B-mode image to generate a sound speed image, which is output as sound speed image data. The diagnosis information is input to the sound speed image generation unit 26, and a difference from the average value of the sound speed based on the diagnosis information may be used, or the value corresponding to the local sound speed value is adjusted again so that the gradation can be easily expressed. You may go. Further, an image of a distribution of a difference from an average value of local sound speed values in a separately set reference region, an average value of local sound speed values set by an operator, or an average value of local sound speed values based on diagnostic information (difference sound speed image ).

画素組織決定部28には、着目領域全体の局所音速値が入力される。画素組織決定部28では、局所音速値と予め設定された組織固有の音速の特徴である特徴情報とに基づいて、着目領域全体について画素ごとに属する組織が決定され、画素組織情報として出力される。例えば、ある注目画素を中心とした所定範囲に含まれる画素の、局所音速値の分布から特徴量(例えば、局所音速値の平均値)を求め、当該特徴量と特徴情報とを比較することで、注目画素の属する組織が決定される。なお、特徴情報は、予め統計的手法等により、音速分布の特徴量を求めてテーブル等で表したものを用いることができる。   A local sound speed value of the entire region of interest is input to the pixel organization determination unit 28. In the pixel organization determination unit 28, the organization belonging to each pixel for the entire region of interest is determined based on the local sound velocity value and the feature information that is a characteristic of the sound velocity inherent to the tissue, and is output as pixel organization information. . For example, a feature amount (for example, an average value of local sound speed values) is obtained from a distribution of local sound speed values of pixels included in a predetermined range centered on a certain target pixel, and the feature amount is compared with feature information. The organization to which the target pixel belongs is determined. Note that the feature information can be obtained by previously obtaining a feature value of the sound speed distribution by a statistical method or the like and expressing it in a table or the like.

ここで、注目画素の特徴量は1種類に限られず、複数の特徴量を用いてもよい。例えば、複数の特徴量から重回帰式により1つの指標を算出し、当該指標に基づいて注目画素が属する組織を決定してもよい。複数の特徴量としては、例えば、局所音速値の平均値、分散、平均値への集中程度、ヒストグラムの歪度または尖度、空間周波数の平均、および、空間周波数の分散または帯域などが挙げられる。また、同時生起行列などによるテクスチャ特徴量、例えば、一様性、コントラスト、相関、およびエントロピー等を用いても良い。なお、特徴情報も同様の特徴量を用いてもよい。   Here, the feature amount of the target pixel is not limited to one type, and a plurality of feature amounts may be used. For example, one index may be calculated from a plurality of feature quantities by a multiple regression equation, and the organization to which the target pixel belongs may be determined based on the index. Examples of the plurality of feature amounts include an average value of local sound velocity values, a variance, a degree of concentration on the average value, a skewness or kurtosis of a histogram, an average of spatial frequencies, and a variance or band of spatial frequencies. . In addition, texture feature quantities such as co-occurrence matrices, such as uniformity, contrast, correlation, and entropy may be used. Note that the feature information may use the same feature amount.

他にも、対象部位および走査法が決まっていれば、各組織の標準的な配置も決まってくるため、注目画素の特徴量だけでなく、注目画素の位置によって各組織に属する確率を求め、当該確率も反映して注目画素の属する組織が決定されるようにしてもよい。
また、注目画素の属する組織が、周囲の画素の属する組織と異なる場合、最も特徴の近い組織に決定されることで飛び地が発生することを防止してもよい。もしくは、各領域の大まかな境界が判別できればよい場合には、解像度を落とす等して目立たなくしてもよいし、詳細な画像が必要な場合には、異常の可能性もあるため、決定された組織をそのまま表示してもよい。
In addition, if the target region and the scanning method are determined, the standard arrangement of each tissue is also determined, so not only the feature amount of the pixel of interest but also the probability of belonging to each tissue is determined by the position of the pixel of interest, The organization to which the target pixel belongs may be determined reflecting the probability.
Further, when the tissue to which the pixel of interest belongs is different from the tissue to which the surrounding pixels belong, it is possible to prevent the occurrence of an enclave by determining the tissue having the closest feature. Or, if it is only necessary to be able to determine the rough boundary of each area, it may be inconspicuous by reducing the resolution, etc., and if a detailed image is required, it may be abnormal, so it was decided The organization may be displayed as it is.

着目領域分割部30には、音速画像データ、画素組織情報、および着目領域指定情報が入力される。着目領域分割部30では、画素組織情報に基づき、隣接する画素と組織が同一である画素は、同一の分割領域に属するように、着目領域が2以上の分割領域に分割され、分割されたそれぞれの分割領域の境界線、分割数、および、各画素がどの分割領域に属するかを示す属性等の情報を含む着目領域の情報が、着目領域情報として生成され出力される。   The attention area dividing unit 30 receives sound velocity image data, pixel organization information, and attention area designation information. Based on the pixel organization information, the region of interest division unit 30 divides the region of interest into two or more divided regions so that adjacent pixels and the same tissue belong to the same divided region. The information of the attention area including information such as the boundary line of the divided areas, the number of divisions, and the attribute indicating which division area each pixel belongs to is generated and output as the attention area information.

分割領域組織決定部32には、画素組織情報、および着目領域情報が入力される。分割領域組織決定部32では、それぞれの分割領域の組織が、画素組織情報(当該分割領域に属する画素の組織)に基づいて決定され、領域組織情報として着目領域情報に付加されて領域情報として出力される。   The divided region organization determination unit 32 receives pixel organization information and focus region information. In the divided region organization determination unit 32, the organization of each divided region is determined based on the pixel organization information (the organization of the pixels belonging to the divided region), added as region organization information to the region of interest information, and output as region information. Is done.

組織性状情報生成部34には、着目領域全体の局所音速値、領域情報、および後述する診断情報が入力される。組織性状情報生成部34は、各画素の局所音速値、および属する分割領域に基づいて、組織性状情報を生成する。組織性状情報は、局所音速値の分布の特徴を表す情報であり、例えば、分割領域における、各画素の局所音速値の平均値、分散、平均値への集中程度、ヒストグラムの歪度または尖度、空間周波数の平均、および、空間周波数の分散または帯域などの特徴量である。また、同時生起行列などによるテクスチャ特徴量、例えば、一様性、コントラスト、相関、およびエントロピー等を用いても良いし、上記で生成された画素組織情報を用いてもよい。なお、組織性状情報は、画素組織決定部28で求められる特徴量とは別途生成される。 The tissue property information generation unit 34 receives a local sound velocity value, region information, and diagnostic information described below for the entire region of interest. The tissue property information generation unit 34 generates tissue property information based on the local sound velocity value of each pixel and the divided region to which the pixel belongs. The tissue property information is information representing the characteristics of the distribution of local sound speed values, for example, the average value, variance, degree of concentration on the average value, skewness or kurtosis of the histogram in each divided region. , Spatial frequency average, and spatial frequency variance or band. In addition, texture feature amounts such as co-occurrence matrixes, such as uniformity, contrast, correlation, and entropy, may be used, or the pixel organization information generated above may be used. Note that the tissue property information is generated separately from the feature amount obtained by the pixel organization determination unit 28.

さらに、一方の分割領域と他方の分割領域とにおいて、組織性状情報の差分を取ってもよい。このとき、基準とする領域は分割領域の位置に基づいて設定してもよいし、組織性状情報に基づいて設定してもよい。例えば、肝臓の局所音速値の平均値と、皮下脂肪の局所音速値の平均値とについて差分を取得したい場合、皮下脂肪は皮膚の直下にあり、他の組織と比較して音速の平均値が低いため、最も浅い分割領域、または音速の平均値が最も低い分割領域を皮下脂肪と判定して、基準領域と設定してもよい。もしくは、差分を取る代わりに複数の他の分割領域との間でテーブルを用いてもよい。他にも、オペレータによって基準領域が設定されてもよいし、領域の位置関係を基に基準領域が設定されてもよい。   Further, a difference in tissue property information may be taken in one divided region and the other divided region. At this time, the reference region may be set based on the position of the divided region, or may be set based on the tissue property information. For example, if you want to obtain the difference between the average value of the local sound speed value of the liver and the average value of the local sound speed value of the subcutaneous fat, the subcutaneous fat is directly under the skin, and the average value of the sound speed is lower than that of other tissues. Since it is low, the shallowest divided area or the divided area having the lowest average sound speed may be determined as the subcutaneous fat and set as the reference area. Alternatively, a table may be used between a plurality of other divided areas instead of taking the difference. In addition, the reference area may be set by the operator, or the reference area may be set based on the positional relationship of the areas.

また、診断情報が入力される場合、つまり、一度生成された組織性状情報に対して、診断情報がフィードバックされる場合、診断情報を反映して再度組織性状情報が生成される。例えば、一方の分割領域の診断情報を他方の分割領域の組織性状情報の生成に用いる場合や、診断情報が反映された組織性状情報を生成する場合が挙げられる。   In addition, when diagnostic information is input, that is, when diagnostic information is fed back with respect to the tissue property information generated once, the tissue property information is generated again reflecting the diagnosis information. For example, there are a case where diagnostic information of one divided region is used for generation of tissue property information of the other divided region, and a case where tissue characteristic information reflecting the diagnostic information is generated.

診断情報生成部36には、組織性状情報が入力される。診断情報生成部36では、組織性状情報に基づき、脂肪肝や肝硬変等の病変種類、および肝硬変の進行度(F0〜F4)等の情報が、診断情報として生成され出力される。   The tissue property information is input to the diagnostic information generation unit 36. Based on the tissue property information, the diagnosis information generation unit 36 generates and outputs information such as the type of lesion such as fatty liver and cirrhosis and the degree of progression (F0 to F4) of cirrhosis as diagnosis information.

画像処理部38には、Bモード画像データ、音速画像データ、領域情報、組織性状情報、および診断情報が入力される。画像処理部38は、DSC(Digital Scan Converter)機能、ならびに、各種画像データ(Bモード画像データ、および音速画像データ)と各種情報(領域情報、組織性状情報、および診断情報)との重畳(オーバーレイ)表示、強調表示、およびマスク処理等の画像処理機能を有する。画像処理部38からは、DSCおよび画像処理が行われた表示画像データが出力される。なお、重畳表示等に用いるBモード画像データは、画像全体のフォーカスが最も良好な設定音速におけるデータを用いるのがよい。   B-mode image data, sound velocity image data, region information, tissue property information, and diagnostic information are input to the image processing unit 38. The image processing unit 38 has a DSC (Digital Scan Converter) function and superimposition (overlay) of various image data (B-mode image data and sound velocity image data) and various information (region information, tissue property information, and diagnostic information). ) Image processing functions such as display, highlighting, and mask processing. The image processing unit 38 outputs display image data subjected to DSC and image processing. Note that B-mode image data used for superimposed display or the like is preferably data at a set sound speed that provides the best focus of the entire image.

DSC機能では、Bモード画像データおよび音速画像データが、通常のテレビジョン信号の走査方式と異なる走査方式であるため、後述する表示部40に表示可能なように、通常の画像データ(例えば、テレビジョン信号の走査方式(NTSC方式)の画像データ)への変換(ラスター変換)が行われる。   In the DSC function, since the B-mode image data and the sound velocity image data have a scanning method different from the normal television signal scanning method, normal image data (for example, a television set) can be displayed on the display unit 40 described later. John signal is converted (raster conversion) into scanning data (NTSC image data).

画像処理機能では、例えば、Bモード画像データ、音速画像データ、および各種情報の重畳表示画像が生成される。各分割領域についての領域組織情報、組織性状情報、および/または診断情報を、Bモード画像または音速画像と重畳表示することで、医師の診断を補助する表示画像が生成される。例えば、音速画像上の各分割領域に、局所音速値の平均値、および/または組織の名称(肝臓、腎臓、脂肪等:領域組織情報)を表示したり、領域組織情報と、局所音速値の平均値が肝硬変の音速値の範囲であるという診断情報とから、当該分割領域に肝硬変の進行度を表す記号(F0〜F4)の表示、あるいは彩色を施す等の表示が行われた表示画像が生成される。   In the image processing function, for example, B-mode image data, sound speed image data, and a superimposed display image of various information are generated. By displaying region tissue information, tissue property information, and / or diagnostic information for each divided region on a B-mode image or a sound velocity image, a display image that assists a doctor's diagnosis is generated. For example, the average value of local sound speed values and / or the names of tissues (liver, kidney, fat, etc .: area tissue information) are displayed in each divided area on the sound speed image, or the area tissue information and local sound speed values are displayed. From the diagnosis information that the average value is within the range of the sound velocity value of cirrhosis, a display image on which display such as display of symbols (F0 to F4) indicating the degree of progress of cirrhosis or coloring is performed on the divided region is performed. Generated.

表示部40には、表示画像データが入力され表示される。表示部40は、液晶、プラズマ、有機EL(Electro Luminescence)等のFPD(Flat Panel Display)、またはCRT(Cathode Ray Tube)等により構成される。表示部40は、複数の画像を並べて表示可能なように、表示面積が大きいもの、および画素数の多いものを用いるのがよい。   Display image data is input and displayed on the display unit 40. The display unit 40 is configured by an FPD (Flat Panel Display) such as liquid crystal, plasma, organic EL (Electro Luminescence), or a CRT (Cathode Ray Tube). As the display unit 40, it is preferable to use a display having a large display area and a large number of pixels so that a plurality of images can be displayed side by side.

RFデータ記録再生部42には、RFデータ、フレームレートに関する情報(例えば、超音波の反射位置の深度、走査線の密度、視野幅を示すパラメータ)が入力され、内部のシネメモリに記録される。RFデータ記録再生部42は、シネメモリ記録モードとシネメモリ再生モードの2つの動作モードを持ち、通常観察時(ライブモード)にはシネメモリ記録モードとして動作し、RFデータが記録されている。   The RF data recording / reproducing unit 42 receives RF data and information about the frame rate (for example, parameters indicating the depth of the reflection position of the ultrasonic wave, the density of the scanning line, and the visual field width) and records them in the internal cine memory. The RF data recording / reproducing unit 42 has two operation modes of a cine memory recording mode and a cine memory reproducing mode, and operates as a cine memory recording mode during normal observation (live mode), and RF data is recorded.

シネメモリ再生モードは、シネメモリに格納されているRFデータに基づいて超音波診断画像の表示、解析・計測を行うモードである。シネメモリ再生モード時には、シネメモリに格納されているRFデータが、オペレータの操作に応じて、信号処理部22へと出力され、オペレータはRFデータ記録再生部42に記録されたRFデータに基づく、Bモード画像、音速画像、領域組織情報、組織性状情報、および診断情報を見ることができる。   The cine memory playback mode is a mode for displaying, analyzing and measuring an ultrasonic diagnostic image based on RF data stored in the cine memory. In the cine memory playback mode, the RF data stored in the cine memory is output to the signal processing unit 22 in accordance with the operation of the operator, and the operator uses the B mode based on the RF data recorded in the RF data recording / playback unit 42. Images, sound speed images, regional tissue information, tissue property information, and diagnostic information can be viewed.

次に、本発明に係る超音波画像生成方法を実現する、本発明に係る超音波画像診断装置10の動作を説明する。   Next, the operation of the ultrasonic diagnostic imaging apparatus 10 according to the present invention for realizing the ultrasonic image generation method according to the present invention will be described.

図4および図5は、本発明に係る超音波画像診断装置の処理の流れの一例を示すフローチャートである。
初めに、オペレータにより領域情報、および組織性状情報等を取得したい部位(対象部位)が選択される。対象部位が選択されると、当該対象部位に含まれる組織、および当該組織固有の音速の特徴が、特徴情報として設定される(ステップS6)。また、同じ部位であっても走査法が異なると観察される組織や断面が異なる、つまり、固有の音速の特徴が異なるため、例えば、右肋骨弓下走査、正中縦断走査等の走査法も選択されるようにしてもよい。
4 and 5 are flowcharts showing an example of the processing flow of the ultrasonic diagnostic imaging apparatus according to the present invention.
First, a region (target region) for which region information and tissue property information and the like are to be acquired is selected by the operator. When the target region is selected, the tissue included in the target region and the characteristics of the sound speed unique to the tissue are set as feature information (step S6). In addition, even if the scanning method is the same, the observed tissue and cross-section are different, that is, the characteristics of the specific sound speed are different. For example, scanning methods such as scanning under the right radial arch and midline longitudinal scanning are also selected. You may be made to do.

次に、環境音速値を求めるための設定音速が制御部14によって複数選択され、送受信部20に対して設定される(ステップS8)。ここで、設定音速は人体内の音速の範囲(概ね、1400m/s〜1650m/s)の中から、複数の音速が選択され設定される。選択される音速の数(L)は、横軸を設定音速、縦軸をフォーカス指標としたグラフにプロットしたときに、図3(a),(b)に示すようなグラフが描ける程度であればよい。なお、オペレータによって設定音速が設定されるようにしてもよい。   Next, a plurality of set sound speeds for obtaining the environmental sound speed value are selected by the control unit 14 and set for the transmission / reception unit 20 (step S8). Here, as the set sound speed, a plurality of sound speeds are selected and set from the range of sound speed in the human body (generally, 1400 m / s to 1650 m / s). The number of selected sound speeds (L) should be such that when plotted on a graph with the horizontal axis as the set sound speed and the vertical axis as the focus index, the graphs shown in FIGS. 3 (a) and 3 (b) can be drawn. That's fine. The set sound speed may be set by the operator.

続いて、オペレータが超音波探触子16を被検体に接触させて超音波の送受信が行われ、超音波検出信号が超音波探触子16から出力される(ステップS10)。超音波検出信号は送受信部20に入力され、選択された複数の設定音速に対応する受信遅延パターンに基づき、それぞれの設定音速ごとに受信フォーカス処理または送受信フォーカス処理が行われ、A/D(Analog/Digital)変換されて、設定音速ごとのRFデータとして出力される(ステップS12)。   Subsequently, the operator brings the ultrasonic probe 16 into contact with the subject to transmit / receive ultrasonic waves, and an ultrasonic detection signal is output from the ultrasonic probe 16 (step S10). The ultrasonic detection signal is input to the transmission / reception unit 20, and reception focus processing or transmission / reception focus processing is performed for each set sound speed based on the reception delay pattern corresponding to the selected plurality of set sound speeds, and A / D (Analog / Digital) and output as RF data for each set sound speed (step S12).

設定音速ごとのRFデータは、信号処理部22に入力され、STCにより超音波の反射位置の深度に応じて距離による減衰の補正がされた後、包絡線検波処理が施され、図8に示すようなBモード画像のBモード画像データが設定音速ごとに生成され出力される(ステップS14)。   The RF data for each set sound speed is input to the signal processing unit 22, and after the attenuation by the distance is corrected according to the depth of the reflection position of the ultrasonic wave by the STC, the envelope detection process is performed, as shown in FIG. Such B-mode image data of the B-mode image is generated and output for each set sound speed (step S14).

全ての設定音速ごとのBモード画像データおよびRFデータは、音速値算出部24に入力される。音速値算出部24では、Bモード画像のうち局所音速値を得たい領域について着目領域として指定される(ステップS16)。着目領域は、例えば、図8に示す着目領域60のように、Bモード画像全体が初期設定にて自動的に指定されるようにしてもよいし、Bモード画像の一部が自動的に着目領域として設定されてもよい。また、オペレータが操作部12を操作することによりBモード画像の一部が指定されてもよい。着目領域は、例えば、始点座標[xmin,ymin]、および終点座標[xmax,ymax]で設定される。図4のフローチャートでは、例としてxがn〜N,yがm〜Mと設定される。
着目領域が設定されると、環境音速値の算出を開始する開始着目画素(例えば、x=n,y=m)が設定され(ステップS18)、着目画素の環境音速値の算出が行われる(ステップS20)。
The B-mode image data and the RF data for every set sound speed are input to the sound speed value calculation unit 24. In the sound speed value calculation unit 24, an area for which a local sound speed value is to be obtained in the B-mode image is designated as a region of interest (step S16). As the attention area, for example, as in the attention area 60 shown in FIG. 8, the entire B-mode image may be automatically specified by default, or a part of the B-mode image is automatically noticed. It may be set as an area. Further, a part of the B-mode image may be specified by operating the operation unit 12 by the operator. The region of interest is set with, for example, start point coordinates [x min , y min ] and end point coordinates [x max , y max ]. In the flowchart of FIG. 4, x is set as n to N and y is set as m to M as an example.
When the region of interest is set, a starting pixel of interest (for example, x = n, y = m) for starting the calculation of the environmental sound speed value is set (step S18), and the environmental sound speed value of the pixel of interest is calculated ( Step S20).

ここで、着目画素の環境音速値の算出の詳細を、図6のフローチャートにより説明する。
まず、ステップS8で設定された環境音速値を求めるための選択される音速の数(設定音速の個数)が、初期値C=1,最大値Cmax=Lに設定される(ステップS202)。
Here, the details of the calculation of the environmental sound speed value of the pixel of interest will be described with reference to the flowchart of FIG.
First, the number of selected sound speeds (number of set sound speeds) for obtaining the environmental sound speed value set in step S8 is set to an initial value C i = 1 and a maximum value C max = L (step S202). .

次に、設定音速Cのフォーカス指標が算出され出力される(ステップS204)。フォーカス指標値としては、例えば、Bモード画像データのコントラスト、シャープネスの値が算出され出力される。なお、着目画素のRFデータのビーム幅から、所定の指数が算出されてフォーカス指標として出力されてもよい。 Then, the focus index of the set sound velocity C i is calculated and output (step S204). As the focus index value, for example, the contrast and sharpness values of the B-mode image data are calculated and output. Note that a predetermined index may be calculated from the beam width of the RF data of the pixel of interest and output as a focus index.

=1(初期値)についてフォーカス指標の算出が終了すると、CとCmax(最大値)の値が比較され(ステップS206)、Cの値がCmax未満であるときは(ステップS206で“N”)、Cに1が足されて(ステップS208)、ステップS204のフォーカス指標の算出に戻る。フォーカス指標の算出(ステップS204)は、C=Cmaxとなるまで繰り返され、着目画素の全ての設定音速についてフォーカス指標が算出され出力される。 When the calculation of the focus index is completed for C i = 1 (initial value), the values of C i and C max (maximum value) are compared (step S206). When the value of C i is less than C max (step S206) "N") in S206, 1 is being added together in C i (step S208), returns to the calculation of the focus index of the step S204. The calculation of the focus index (step S204) is repeated until C i = C max, and the focus index is calculated and output for all set sound speeds of the pixel of interest.

着目画素の全ての設定音速についてのフォーカス指標は、環境音速プロファイル生成部50に入力され、横軸を設定音速、縦軸をフォーカス指標としたグラフにプロットされ、環境音速プロファイルが生成され出力される(ステップS210)。   The focus index for all the set sound speeds of the target pixel is input to the environmental sound speed profile generation unit 50, plotted on a graph with the horizontal axis as the set sound speed and the vertical axis as the focus index, and the environmental sound speed profile is generated and output. (Step S210).

環境音速プロファイルは、環境音速値決定部52に入力され、例えば、図3(a)に示すような環境音速プロファイルであれば、フォーカス指標の最大値の設定音速値が環境音速値として決定され出力される(ステップS212)。   The environmental sound speed profile is input to the environmental sound speed value determination unit 52. For example, if the environmental sound speed profile is as shown in FIG. 3A, the set sound speed value of the maximum value of the focus index is determined and output as the environmental sound speed value. (Step S212).

着目画素の環境音速値の算出が終了すると、つまりステップS20が終了すると、着目画素のy座標の値がymaxと比較され(ステップS22)、yの値がymax未満であるときは(ステップS22で“N”)、yに1が足されて(ステップS24)、ステップS20の着目画素の環境音速値の算出に戻る。着目画素の環境音速値の算出(ステップS20)は、y=ymaxとなるまで繰り返される。 When the calculation of the environmental sound speed value of the pixel of interest is completed, that is, when step S20 is completed, the y coordinate value of the pixel of interest is compared with y max (step S22), and when the value of y is less than y max (step S22) "N" in S22), 1 is added to y (step S24), and the process returns to the calculation of the environmental sound speed value of the pixel of interest in step S20. The calculation of the environmental sound speed value of the pixel of interest (step S20) is repeated until y = y max .

y=ymaxとなると(ステップS22で“Y”)、着目画素のx座標の値がxmaxと比較され(ステップS26)、xの値がxmax未満であるときは(ステップS26で“N”)、xに1が足されて(ステップS28)、y座標の値がymin(y=m)に設定され(ステップS30)、ステップS20の着目画素の環境音速値の算出に戻る。つまり、y座標方向をラインとすると、x座標がnである1ライン目の環境音速値が算出されると、x座標が1だけインクリメントされ(n+1)、2ライン目の環境音速値が算出される。着目画素の環境音速値の算出(ステップS20)は、着目領域全体について(x=xmax(x=N),y=ymax(y=M)まで)、環境音速値が算出されるまで繰り返される。
着目領域全体について環境音速値が算出されると、環境音速値算出部44から着目領域全体の環境音速値が出力される。
When y = y max (“Y” in step S22), the value of the x coordinate of the pixel of interest is compared with x max (step S26), and when the value of x is less than x max (“N” in step S26) ”), 1 is added to x (step S28), the value of the y coordinate is set to y min (y = m) (step S30), and the process returns to the calculation of the environmental sound speed value of the target pixel in step S20. That is, assuming that the y coordinate direction is a line, when the environmental sound speed value of the first line whose x coordinate is n is calculated, the x coordinate is incremented by 1 (n + 1), and the environmental sound speed value of the second line is calculated. The The calculation of the environmental sound speed value of the target pixel (step S20) is repeated for the entire target area (up to x = x max (x = N), y = y max (y = M)) until the environmental sound speed value is calculated. It is.
When the environmental sound velocity value is calculated for the entire region of interest, the environmental sound velocity value for the entire region of interest is output from the environmental sound velocity value calculation unit 44.

着目領域全体の環境音速値は、局所音速値算出部46に入力される。局所音速値算出部46では、局所音速値の算出を開始する開始着目画素(例えば、x=n,y=m)が設定され(ステップS32)、着目画素の局所音速値の算出が行われる(ステップS34)。   The environmental sound speed value of the entire region of interest is input to the local sound speed value calculation unit 46. In the local sound speed value calculation unit 46, a start target pixel (for example, x = n, y = m) for starting the calculation of the local sound speed value is set (step S32), and the local sound speed value of the target pixel is calculated (step S32). Step S34).

ここで、着目画素の局所音速値の算出の詳細を、図7のフローチャートにより説明する。
まず、格子点XROIにおける環境音速値に基づいて、格子点XROIを反射点とした時の仮想的な受信波Wの波形が算出される(ステップS302)。
Here, the details of the calculation of the local sound velocity value of the pixel of interest will be described with reference to the flowchart of FIG.
First, based on the environmental sound speed value at the lattice point X ROI, the waveform of the virtual receiving wave W X when the lattice point X ROI and the reflection point is calculated (step S302).

次に、格子点XROIにおける仮定音速の初期値が設定される(ステップS304)。そして、仮定音速が1ステップ変更されて(ステップS306)、仮想的な合成受信波WSUMが算出される(ステップS308)。格子点XROIにおける局所音速値をVと仮定すると、格子点XROIから伝播した超音波が格子点A1,A2,…に到達するまでの時間はXROIA1/V,XROIA2/V,…となる。ここで、XROIA1,XROIA2,…は、それぞれ格子点A1,A2,…と格子点XROIとの間の距離である。格子点A1,A2,…における環境音速値は図4のステップS26までにより既知のため、各格子点A1,A2,…からの受信波は予め求めることができる。従って、格子点A1,A2,…からそれぞれ遅延XROIA1/V,XROIA2/V,…で発した反射波(超音波エコー)を合成することにより、仮想合成受信波WSUMを求めることができる。 Next, the initial value of the assumed sound speed at the lattice point X ROI is set (step S304). Then, the assumed sound speed is changed by one step (step S306), and a virtual combined received wave WSUM is calculated (step S308). When the local sound speed value at the lattice point X ROI is assumed by V, ultrasound lattice points having propagated from the lattice point X ROI A1, A2, the time to reach ... to X ROI A1 / V, X ROI A2 / V, ... Here, X ROI A1, X ROI A2,... Are the distances between the lattice points A1, A2 ,. Since the environmental sound velocity values at the lattice points A1, A2,... Are known up to step S26 in FIG. 4, the received waves from the lattice points A1, A2,. Therefore, the virtual composite received wave WSUM is obtained by synthesizing the reflected waves (ultrasonic echoes) emitted from the lattice points A1, A2,... With the delays XROI A1 / V, XROI A2 / V ,. Can do.

なお、実際には、素子データ(RF信号)上で上記処理を行うため、格子点XROIから格子点A1,A2,…に到達するまでの時間(それぞれT1,T2,…)は下記の式(1)により表される。ここで、XA1,XA2,…は、それぞれ格子点A1,A2,…と格子点Xとの間のスキャン方向(X方向)の距離である。また、Δtは格子点のY方向時間間隔である。 Actually, since the above processing is performed on the element data (RF signal), the time (T1, T2,...) From the lattice point XROI to the lattice points A1, A2,. It is represented by (1). Here, X A1 , X A2 ,... Are distances in the scanning direction (X direction) between the lattice points A 1, A 2,. Δt is a time interval in the Y direction of the lattice points.

上記T1,T2,…に、格子点XROIと同音線の格子点Anから格子点XROIに到達するまでの時間(Δt/2)を足した遅延で各格子点A1,A2,…からの受信波を合成することにより、仮想合成受信波WSUMを求めることができる。 The T1, T2, ..., the lattice point X ROI and same sound ray from the lattice point An Time to reach the grid point X ROI (Δt / 2) each grid point in the delay plus A1, A2, ... from By synthesizing the received wave, a virtual synthesized received wave WSUM can be obtained.

ここで、格子点をY方向に時間軸で等間隔(Δt)に設定する場合、空間上での間隔は必ずしも等間隔にはならない。従って、各格子点に超音波が到達するまでの時間を計算するときに、式(1)においてΔt/2の代わりに補正したΔt/2を用いてもよい。ここで、補正したΔt/2は、例えば、格子点XROIと同音線の格子点Anに比べたA1,A2,…の深さ(Y方向の距離)の差をVで除算した値をΔt/2から加算・減算した値である。各格子点A1,A2,…の深さはそれより浅い格子点において局所音速値が既知であることから求められる。 Here, when the lattice points are set at equal intervals (Δt) on the time axis in the Y direction, the intervals in the space are not necessarily equal. Therefore, when calculating the time until the ultrasonic wave reaches each lattice point, Δt / 2 corrected in Equation (1) instead of Δt / 2 may be used. Here, the corrected Δt / 2 is, for example, a value obtained by dividing the difference in depth (distance in the Y direction) of A1, A2,... Compared with the lattice point X ROI and the lattice point An of the same sound line by V. A value obtained by adding / subtracting from / 2. The depth of each lattice point A1, A2,... Is obtained because the local sound velocity value is known at a lattice point shallower than that.

また、仮想合成受信波WSUMの算出は、実際に格子点A1,A2,…から遅延XROIA1/V,XROIA2/V,…で発した既定のパルス波(それぞれWA1,WA2,…)を重ね合わせることにより行う。 Further, the virtual composite received wave WSUM is calculated from predetermined pulse waves (W A1 , W A2 , respectively) actually emitted from the lattice points A1, A2,... With delays X ROI A1 / V, X ROI A2 / V ,. , ...) are superimposed.

次に、仮想受信波Wと仮想合成受信波WSUMの誤差が算出される(ステップS310)。仮想受信波Wと仮想合成受信波WSUMの誤差は、互いの相互相関をとる方法、仮想受信波Wに仮想合成受信波WSUMから得られる遅延を掛けて位相整合加算する方法、または逆に仮想合成受信波WSUMに仮想受信波Wから得られる遅延を掛けて位相整合加算する方法により算出される。ここで、仮想受信波Wから遅延を得るには、格子点XROIを反射点とし、音速Vで伝播した超音波が各素子に到着する時刻を遅延とすればよい。また、仮想合成受信波WSUMから遅延を得るには、隣り合う素子間での合成受信波の位相差から等位相線を抽出し、その等位相線を遅延とするか、または単に各素子の合成受信波の最大(ピーク)位置の位相差を遅延としてもよい。また、各素子からの合成受信波の相互相関ピーク位置を遅延としてもよい。位相整合加算時の誤差は、整合加算後の波形のpeak to peakとする方法、または包絡線検波した後の振幅の最大値とする方法により求められる。 Next, the error of the assumed resultant received wave W SUM is calculated and the virtual reception wave W X (step S310). Error between the virtual receiving wave W X assumed resultant received wave W SUM is a method of cross-correlating with each other, the method over a delay obtained from the assumed resultant received wave W SUM to the virtual receiving wave W X phase matching addition or Conversely over a delay obtained assumed resultant received wave W SUM from the virtual receiving wave W X is calculated by the method of phase matching addition. Here, in order to obtain a delay from the virtual received wave W X , the lattice point X ROI is used as a reflection point, and the time at which the ultrasonic wave propagated at the sound velocity V arrives at each element may be set as the delay. Further, in order to obtain a delay from the virtual combined received wave WSUM , an equiphase line is extracted from the phase difference of the combined received wave between adjacent elements, and the equal phase line is used as a delay, or simply, The phase difference of the maximum (peak) position of the combined received wave may be used as the delay. Further, the cross-correlation peak position of the combined received wave from each element may be set as a delay. The error at the time of phase matching addition is obtained by a method of setting the peak to peak of the waveform after the matching addition or a method of setting the maximum value of the amplitude after the envelope detection.

次に、ステップS306からS310が繰り返されて、全ての仮定音速の値での演算が終了すると(ステップS312で“Y”)、格子点XROIにおける局所音速値が判定される(ステップS314)。ホイヘンスの原理を厳密に適用した場合、上記ステップS308において求めた仮想合成受信波WSUMの波形は、格子点XROIにおける局所音速値をVと仮定した場合の仮想受信波(反射波)Wの波形と等しくなる。ステップS314では、仮想受信波Wと仮想合成受信波WSUMとの差が最小になる仮定音速の値を格子点XROIにおける局所音速値と判定する。 Next, Steps S306 to S310 are repeated, and when the calculation is completed for all assumed sound speed values (“Y” in Step S312), the local sound speed value at the lattice point X ROI is determined (Step S314). When the Huygens principle is strictly applied, the waveform of the virtual synthesized received wave W SUM obtained in step S308 is a virtual received wave (reflected wave) W X when the local sound velocity value at the lattice point X ROI is assumed to be V. It becomes equal to the waveform. At step S314, the determined value of the assumed sound speed difference between the virtual receiving wave W X and the assumed resultant received wave W SUM is minimized and local sound speed value at the lattice point X ROI.

なお、上記の方法(仮想合成受信波形算出、仮想受信波形との誤差算出、音速判定)の代わりに、格子点XROIの環境音速値と格子点A1,A2,…の環境音速値を入力として格子点XROIにおける音速値を出力とするテーブルを利用してもよい。
また、異なる間隔、異なる範囲の格子点を用いて、局所音速値の判定を複数回行うようにしてもよい。
The above method (assumed resultant received waveform calculation, error calculation and virtual reception waveform, sound speed determination), instead of the lattice points X ROI of ambient sound velocity value and the lattice points A1, A2, ... ambient sound velocity value as input A table that outputs sound speed values at the grid point X ROI may be used.
Alternatively, the local sound speed value may be determined a plurality of times using different intervals and different ranges of grid points.

着目画素の局所音速値の算出が終了すると、つまりステップS34が終了すると、着目画素のy座標の値がymaxと比較され(ステップS36)、yの値がymax未満であるときは(ステップS36で“N”)、yに1が足されて(ステップS38)、ステップS34の着目画素の局所音速値の算出に戻る。着目画素の局所音速値の算出(ステップS34)は、y=ymaxとなるまで繰り返される。 When the calculation of the local sound velocity value of the pixel of interest is completed, that is, when step S34 is completed, the y coordinate value of the pixel of interest is compared with y max (step S36), and if the value of y is less than y max (step S36) "N" in S36), 1 is added to y (step S38), and the process returns to the calculation of the local sound speed value of the pixel of interest in step S34. The calculation of the local sound velocity value of the pixel of interest (step S34) is repeated until y = y max .

y=ymaxとなると(ステップS36で“Y”)、着目画素のx座標の値がxmaxと比較され(ステップS40)、xの値がxmax未満であるときは(ステップS40で“N”)、xに1が足されて(ステップS42)、y座標の値がymin(y=m)に設定され(ステップS44)、ステップS34の着目画素の局所音速値の算出に戻る。つまり、y座標方向をラインとすると、x座標がnである1ライン目の局所音速値が算出されると、x座標が1だけインクリメントされ(n+1)、2ライン目の局所音速値が算出される。着目画素の局所音速値の算出(ステップS34)は、着目領域全体について(x=xmax(x=N),y=ymax(y=M)まで)、局所音速値が算出されるまで繰り返される。
着目領域全体について局所音速値の算出が終了すると、音速値算出部24から着目領域全体の局所音速値、および着目領域指定情報が出力される。
When y = y max (“Y” in step S36), the value of the x coordinate of the pixel of interest is compared with x max (step S40), and when the value of x is less than x max (“N” in step S40) ”), 1 is added to x (step S42), the value of the y coordinate is set to y min (y = m) (step S44), and the process returns to the calculation of the local sound speed value of the pixel of interest in step S34. That is, assuming that the y coordinate direction is a line, when the local sound speed value of the first line whose x coordinate is n is calculated, the x coordinate is incremented by 1 (n + 1), and the local sound speed value of the second line is calculated. The The calculation of the local sound velocity value of the pixel of interest (step S34) is repeated for the entire region of interest (up to x = x max (x = N), y = y max (y = M)) until the local sound velocity value is calculated. It is.
When the calculation of the local sound velocity value is completed for the entire region of interest, the sound velocity value calculation unit 24 outputs the local sound velocity value of the entire region of interest and the region of interest designation information.

着目領域全体の局所音速値は、音速画像生成部26に入力される。音速画像生成部26では、着目領域全体の局所音速値から、音速画像が生成され音速画像データとして出力される(ステップS46)。   The local sound speed value of the entire region of interest is input to the sound speed image generation unit 26. The sound speed image generation unit 26 generates a sound speed image from the local sound speed value of the entire region of interest and outputs it as sound speed image data (step S46).

また、着目領域全体の局所音速値は、画素組織決定部28にも入力される。画素組織決定部28では、局所音速値と特徴情報とに基づいて、着目領域全体について画素ごとに属する組織が決定され、画素組織情報として出力される(ステップS48)。   Further, the local sound velocity value of the entire region of interest is also input to the pixel organization determination unit 28. Based on the local sound velocity value and the feature information, the pixel organization determination unit 28 determines the organization that belongs to each pixel for the entire region of interest and outputs it as pixel organization information (step S48).

音速画像データ、画素組織情報、および着目領域指定情報は、着目領域分割部30に入力される。着目領域分割部30では、画素組織情報に基づき、音速画像の隣接する画素と組織が同一である画素は、同一の分割領域に属するように、着目領域が2以上の分割領域に分割される。また、分割されたそれぞれの分割領域の境界線、分割数、および、各画素がどの分割領域に属するかを示す属性等の情報を含む着目領域の情報が、着目領域情報として生成され出力される(ステップS50)。   The sound speed image data, the pixel organization information, and the attention area designation information are input to the attention area dividing section 30. In the region-of-interest dividing unit 30, the region of interest is divided into two or more divided regions so that pixels having the same tissue as the adjacent pixels of the sound velocity image belong to the same divided region based on the pixel organization information. Also, information on the region of interest including information such as the boundary line of each divided region, the number of divisions, and the attribute indicating which division region each pixel belongs to is generated and output as the region of interest information. (Step S50).

図9に領域分割の一例を示す。図9はBモード画像全体が着目領域として指定された場合の音速画像であり、音速画像の略中央部の点線66を境として画素組織情報の組織が異なる状態となっている。この点線66によって、音速画像は上下に分割され、分割領域62,64とされる。   FIG. 9 shows an example of area division. FIG. 9 is a sound velocity image when the entire B-mode image is designated as the region of interest, and the organization of the pixel tissue information is different from the dotted line 66 at the substantially central portion of the sound velocity image. By this dotted line 66, the sound velocity image is divided into upper and lower parts to be divided areas 62 and 64.

画素組織情報、および着目領域情報は、分割領域組織決定部32に入力される。分割領域組織決定部32では、それぞれの分割領域の組織が画素組織情報に基づいて決定され、領域組織情報として着目領域情報に付加され、領域情報として出力される(ステップS52)。例えば、上記の例では、分割領域62が脂肪、分割領域64が肝臓であるという領域組織情報が付加される。   The pixel organization information and the attention area information are input to the divided area organization determining unit 32. In the divided region organization determination unit 32, the organization of each divided region is determined based on the pixel organization information, added to the region of interest information as region organization information, and output as region information (step S52). For example, in the above example, region tissue information that the divided region 62 is fat and the divided region 64 is the liver is added.

領域情報は、着目領域全体の局所音速値とともに、組織性状情報生成部34へ入力される。組織性状情報生成部34では、各画素の局所音速値、および、その属する分割領域に基づいて、組織性状情報が生成される(ステップS54)。例えば、図9の音速画像では、分割領域62の局所音速値の平均値が1450m/sec、領域64の局所音速値の平均値が1555m/secであった場合、分割領域62の組織性状情報として「局所音速値の平均値:1450m/sec」、分割領域64の組織性状情報として「局所音速値の平均値:1555m/sec」というような組織性状情報が生成される。   The region information is input to the tissue property information generation unit 34 together with the local sound velocity value of the entire region of interest. In the tissue property information generation unit 34, tissue property information is generated based on the local sound velocity value of each pixel and the divided region to which the pixel belongs (step S54). For example, in the sound speed image of FIG. 9, when the average value of local sound speed values in the divided area 62 is 1450 m / sec and the average value of local sound speed values in the area 64 is 1555 m / sec, the tissue property information of the divided area 62 is obtained. Organizational property information such as “average value of local sound speed value: 1450 m / sec” and “average value of local sound speed value: 1555 m / sec” as the tissue property information of the divided region 64 is generated.

組織性状情報が生成されると、さらに診断情報が必要な場合には(ステップS56で“Y”)、組織性状情報は診断情報生成部36に入力され、組織性状情報に基づき診断情報が生成され出力される(ステップS58)。診断情報は、病変の種類、および/または病変の程度(進行度)を表し、例えば、病変の進行度ごとの局所音速値の範囲を記録したテーブルによって病変の進行度の情報が生成される。病変の進行度としては、例えば、肝硬変の進行度を表すF0〜F4などの指標を用いることができる。上記の分割領域64の例では、分割領域64は局所音速値が1555m/secであるので、例えば、「肝硬変の進行度:F0」であるとの診断情報が生成される。なお、テーブルに用いる局所音速値の範囲は、組織名称と同じく予め統計的に求めておいてもよい。   When the tissue property information is generated, if further diagnosis information is necessary (“Y” in step S56), the tissue property information is input to the diagnosis information generation unit 36, and the diagnosis information is generated based on the tissue property information. Is output (step S58). The diagnosis information represents the type of lesion and / or the extent (progression level) of the lesion. For example, the information on the progression level of the lesion is generated by a table in which the range of local sound speed values for each progression degree of the lesion is recorded. As the degree of progression of the lesion, for example, an index such as F0 to F4 representing the degree of progression of cirrhosis can be used. In the example of the divided area 64 described above, since the local sound speed value of the divided area 64 is 1555 m / sec, for example, diagnostic information indicating that “the progression degree of cirrhosis: F0” is generated. It should be noted that the range of the local sound velocity values used in the table may be statistically obtained in advance as with the tissue name.

なお、診断情報は、組織性状情報生成部34にフィードバックされ、組織性状情報に反映されるようにしてもよい。また、例えば、肝臓という領域組織情報が生成された場合に、当該分割領域の組織性状情報と正常な肝臓の組織性状情報との差分を取るようにしてもよい。   The diagnosis information may be fed back to the tissue property information generation unit 34 and reflected in the tissue property information. Further, for example, when regional tissue information called liver is generated, a difference between tissue property information of the divided region and normal liver tissue property information may be taken.

画像処理部38には、Bモード画像データ、音速画像データ、領域情報、組織性状情報、および診断情報が入力される。画像処理部38では、入力された各種画像データに対して通常の画像データへの変換、各種画像データの重畳表示、各種画像データへの組織性状情報および/または診断情報の重畳表示、強調表示、およびマスク処理等が行われ、表示画像データが生成され、表示部40に対して出力され表示される(ステップS60)。   B-mode image data, sound velocity image data, region information, tissue property information, and diagnostic information are input to the image processing unit 38. In the image processing unit 38, various types of input image data are converted into normal image data, various image data are superimposed and displayed, tissue property information and / or diagnostic information is superimposed and displayed on various image data, highlighting, Then, mask processing and the like are performed, display image data is generated, and is output and displayed on the display unit 40 (step S60).

ここで、表示部40に表示される表示画像データの例を挙げる。図10に示すように、音速画像に領域組織情報のみを表示するようにしてもよいし、図11に示すように、さらに組織性状情報として、各分割領域の局所音速値の平均値を表示するようにしてもよい。また、図12に示すように、さらに、病変の種類および進行度(図中、F0)を表示させてもよい。このとき、分割領域が小さい場合は、組織名を省略して進行度のみを表示するようにしてもよい。
他にも、音速画像の色(輝度、色相、彩度)を変調する、各種画像を単独または並べて表示する、必要な部分のみ限定して表示する、拡大または縮小して表示する等、各種の表示方法を用いてもよい。
Here, an example of display image data displayed on the display unit 40 will be given. As shown in FIG. 10, only the regional tissue information may be displayed on the sound velocity image, or as shown in FIG. 11, the average value of the local sound velocity values of each divided region is displayed as the tissue property information. You may do it. In addition, as shown in FIG. 12, the type of lesion and the degree of progression (F0 in the figure) may be displayed. At this time, if the divided area is small, the organization name may be omitted and only the progress degree may be displayed.
In addition, various colors such as modulating the color (brightness, hue, saturation) of a sound speed image, displaying various images individually or side by side, displaying only necessary portions, displaying in an enlarged or reduced manner, etc. A display method may be used.

また、上記の各種の表示画像をオペレータが操作部12を介して、任意に表示モードが切り替えられるようにしてもよい。   Further, the display mode of the various display images may be arbitrarily switched by the operator via the operation unit 12.

以上のように、局所音速値を測定するための専用の超音波を送受信する構成を用いずに、分割された各領域について局所音速値だけでなく、分割された各分割領域の組織の種類を表す領域組織情報、および局所音速値の分布の特徴を表す組織性状情報を求めることができ、さらに病変の種類、および病変の程度といった医師の診断に資する診断情報も提供することができる。   As described above, without using a configuration for transmitting and receiving a dedicated ultrasonic wave for measuring the local sound velocity value, not only the local sound velocity value for each divided region, but also the tissue type of each divided region is determined. The region tissue information to be represented and the tissue property information representing the characteristics of the distribution of local sound velocity values can be obtained, and further diagnostic information that contributes to the diagnosis of the doctor such as the type of lesion and the degree of lesion can be provided.

なお、着目領域の次元は、1次元(音線)、2次元(Bモード画像:平面)、3次元(立体)、および4次元(立体に時間軸を加える)のいずれでもよく、表示する画像も同様にいずれでもよい。例えば、1次元では、音線信号をそのまま表示するAモード表示や、Bモード画像を音線と直交する直線で切り取ったプロファイル表示が挙げられる。3次元では、Bモード画像を着目領域について奥行き方向の情報を付加したものが挙げられ、4次元ではさらに時間軸を加えて動画像で表示するようにしたものが挙げられる。   The dimension of the region of interest may be any one of one dimension (sound ray), two dimensions (B mode image: plane), three dimensions (solid), and four dimensions (adding a time axis to the solid). Can be either as well. For example, in one dimension, there are A mode display in which a sound ray signal is displayed as it is, and profile display in which a B mode image is cut by a straight line orthogonal to the sound ray. In 3D, a B-mode image is added with information in the depth direction about the region of interest, and in 4D, a time axis is added and displayed as a moving image.

また、組織性状情報には領域組織情報が反映されてもよい。例えば、領域組織情報から得られた組織の正常時の組織性状情報との差分を取って新たな組織性状情報としてもよい。
さらに、組織性状情報にはオペレータにより設定された情報が反映されてもよく、例えば、オペレータにより肝臓が設定されると、正常な肝臓の組織性状情報との差分をとるようにしてもよい。これにより、例えば、肝硬変の進行度をより分かり易く示すことができる。
Further, the region organization information may be reflected in the tissue property information. For example, the difference between the normal tissue property information of the tissue obtained from the region tissue information may be taken as new tissue property information.
Furthermore, information set by the operator may be reflected in the tissue property information. For example, when the liver is set by the operator, a difference from the tissue property information of the normal liver may be taken. Thereby, for example, the progress of cirrhosis can be shown more easily.

また、上記の実施形態では、診断情報を生成するためにテーブルを用いたが、診断情報を複数の組織性状情報に基づいて生成する場合には、重回帰式等の導出式を用いてもよい。
さらに、表示画像上に表される各分割領域について、画面上に選択ボタンを設けて、オペレータが必要な分割領域のみ表示させるようにしてもよい。
また、上記の各実施形態では、局所音速値をBモード画像の各画素に割り当てて音速画像を生成したが、これに限定されず、音速画像の画素はBモード画像の画素と1対1で対応しなくてもよい。例えば、Bモード画像の4画素分を音速画像の1画素としてもよい。
In the above embodiment, a table is used to generate diagnostic information. However, when generating diagnostic information based on a plurality of tissue property information, a derived equation such as a multiple regression equation may be used. .
Further, for each divided area displayed on the display image, a selection button may be provided on the screen to display only the divided area required by the operator.
In each of the above embodiments, the sound velocity image is generated by assigning the local sound velocity value to each pixel of the B-mode image. However, the present invention is not limited to this, and the pixel of the sound velocity image is one-to-one with the pixel of the B-mode image. It does not have to correspond. For example, four pixels of the B-mode image may be used as one pixel of the sound speed image.

また、上記の実施形態では、通常観察時(ライブモード)の動作について説明したが、RFデータ記録再生部42に記録されたRFデータに基づいて、Bモード画像および音速画像が生成されるようにしてもよい。   In the above embodiment, the operation during normal observation (live mode) has been described. However, based on the RF data recorded in the RF data recording / reproducing unit 42, a B-mode image and a sound speed image are generated. May be.

なお、本発明においては、上述した超音波画像生成方法の各工程をコンピュータに実行させるための超音波画像生成プログラムとして構成してもよいし、また、コンピュータを、超音波画像生成方法の各工程を実施する各手段として、または、上述した超音波画像診断装置を構成する各手段として機能させる超音波画像生成プログラムとして構成してもよい。
また、本発明を、上述した超音波画像生成プログラムをコンピュータにより読取可能な媒体またはコンピュータにより読取可能なメモリとして構成してもよい。
In the present invention, each step of the above-described ultrasonic image generation method may be configured as an ultrasonic image generation program for causing a computer to execute, or the computer may be configured as each step of the ultrasonic image generation method. As each means for implementing the above, or as an ultrasonic image generation program that functions as each means constituting the above-described ultrasonic image diagnostic apparatus.
Further, the present invention may be configured as a computer-readable medium or a computer-readable memory for the above-described ultrasonic image generation program.

以上、本発明に係る超音波画像診断装置、超音波画像生成方法およびプログラムについて詳細に説明したが、本発明は、上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、各種の改良や変更を行ってもよい。   The ultrasonic diagnostic imaging apparatus, the ultrasonic image generation method, and the program according to the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiment, and the scope of the present invention is not deviated. Various improvements and changes may be made.

10 超音波画像診断装置
12 操作部
14 制御部
16 超音波探触子
18 超音波トランスデューサ
20 送受信部
22 信号処理部
24 音速値算出部
26 音速画像生成部
27 領域分割部
28 画素組織決定部
30 着目領域分割部
32 分割領域組織決定部
34 組織性状情報生成部
36 診断情報生成部
38 画像処理部
40 表示部
42 RFデータ記録再生部
44 環境音速値算出部
46 局所音速値算出部
48 フォーカス指標算出部
50 環境音速プロファイル生成部
52 環境音速値決定部
54 仮想受信波・仮想合成受信波算出部
56 誤差プロファイル生成部
58 局所音速値決定部
60 着目領域
62,64 分割領域
66 点線(分割された境界を表す点線)
DESCRIPTION OF SYMBOLS 10 Ultrasonic image diagnostic apparatus 12 Operation part 14 Control part 16 Ultrasonic probe 18 Ultrasonic transducer 20 Transmission / reception part 22 Signal processing part 24 Sound speed value calculation part 26 Sound speed image generation part 27 Area division part 28 Pixel structure determination part 30 Attention Region division unit 32 Division region organization determination unit 34 Tissue property information generation unit 36 Diagnostic information generation unit 38 Image processing unit 40 Display unit 42 RF data recording / playback unit 44 Environmental sound speed value calculation unit 46 Local sound speed value calculation unit 48 Focus index calculation unit DESCRIPTION OF SYMBOLS 50 Environmental sound speed profile production | generation part 52 Environmental sound speed value determination part 54 Virtual reception wave / virtual synthetic | combination reception wave calculation part 56 Error profile generation part 58 Local sound speed value determination part 60 Region of interest 62, 64 Division area 66 Dotted line ( Representing dotted line)

Claims (10)

超音波を被検体に送信して反射波を受信し超音波検出信号を出力する超音波探触子を有し、着目領域の局所音速値を求める超音波画像診断装置であって、
前記局所音速値と、予め設定された組織固有の音速の特徴である特徴情報とに基づいて、前記着目領域を2以上の分割領域に分割し、分割した前記着目領域の情報を領域情報として生成する領域分割部を有することを特徴とする超音波画像診断装置。
An ultrasonic diagnostic imaging apparatus that has an ultrasonic probe that transmits an ultrasonic wave to a subject, receives a reflected wave, and outputs an ultrasonic detection signal, and obtains a local sound velocity value of a region of interest,
Based on the local sound speed value and feature information that is a characteristic of the sound speed unique to the tissue set in advance, the region of interest is divided into two or more divided regions, and information on the divided region of interest is generated as region information. An ultrasonic diagnostic imaging apparatus comprising an area dividing unit that performs the above-described process.
前記領域分割部は、前記局所音速値と前記特徴情報とに基づいて、前記着目領域を2以上の分割領域に分割し、それぞれの前記分割領域が該当する組織を決定することを特徴とする請求項1に記載の超音波画像診断装置。   The region dividing unit divides the region of interest into two or more divided regions based on the local sound velocity value and the feature information, and determines an organization to which each divided region corresponds. Item 2. The ultrasonic diagnostic imaging apparatus according to Item 1. さらに、前記領域情報および前記局所音速値に基づいて、前記局所音速値の分布の特徴を表す組織性状情報を、1以上の前記分割領域について生成する組織性状情報生成部を有することを特徴とする請求項1または2に記載の超音波画像診断装置。   Furthermore, the system has a tissue property information generating unit that generates tissue property information for one or more of the divided regions based on the region information and the local sound velocity value. The ultrasonic diagnostic imaging apparatus according to claim 1 or 2. さらに、前記組織性状情報に基づいて、前記分割領域のそれぞれにおける、病変の種類、および病変の程度のうち1以上を含む診断情報を生成する診断情報生成部を有することを特徴とする請求項3に記載の超音波画像診断装置。   The diagnostic information generation unit according to claim 3, further comprising: a diagnostic information generation unit configured to generate diagnostic information including at least one of a lesion type and a lesion degree in each of the divided regions based on the tissue property information. The ultrasonic diagnostic imaging apparatus described in 1. 前記分割領域のうち、一方の前記組織性状情報は、さらに、他方の前記組織性状情報が反映された情報であることを特徴とする請求項3または4に記載の超音波画像診断装置。   5. The ultrasonic diagnostic imaging apparatus according to claim 3, wherein one tissue property information of the divided regions is information reflecting the other tissue property information. 6. 前記組織性状情報は、さらに、ユーザが設定した情報が反映された情報であることを特徴とする請求項3〜5のいずれかに記載の超音波画像診断装置。   The ultrasonic image diagnostic apparatus according to claim 3, wherein the tissue property information is information reflecting information set by a user. 前記組織性状情報は、さらに、前記分割領域の組織の情報を反映して生成することを特徴とする請求項3〜6のいずれかに記載の超音波画像診断装置。   The ultrasonic image diagnostic apparatus according to claim 3, wherein the tissue property information is further generated by reflecting information on a tissue in the divided region. 前記組織性状情報は、再度、前記診断情報を反映して生成することを特徴とする請求項3〜7のいずれかに記載の超音波画像診断装置。   The ultrasonic image diagnostic apparatus according to claim 3, wherein the tissue property information is generated again by reflecting the diagnostic information. 超音波を被検体に送信して反射波を受信し、着目領域の局所音速値を求める超音波画像生成方法であって、
前記局所音速値と、予め設定された組織固有の音速の特徴である特徴情報とに基づいて、前記着目領域を2以上の分割領域に分割し、分割した前記着目領域の情報を領域情報として生成する領域分割ステップを有することを特徴とする超音波画像生成方法。
An ultrasonic image generation method for transmitting an ultrasonic wave to a subject, receiving a reflected wave, and obtaining a local sound velocity value of a region of interest,
Based on the local sound speed value and feature information that is a characteristic of the sound speed unique to the tissue set in advance, the region of interest is divided into two or more divided regions, and information on the divided region of interest is generated as region information. An ultrasonic image generation method characterized by comprising an area dividing step.
請求項9に記載の超音波画像生成方法の各ステップを手順としてコンピュータに実行させるためのプログラム。   The program for making a computer perform each step of the ultrasonic image generation method of Claim 9 as a procedure.
JP2010219733A 2010-09-29 2010-09-29 Ultrasonic image diagnostic apparatus, ultrasonic image forming method, and program Abandoned JP2012071042A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010219733A JP2012071042A (en) 2010-09-29 2010-09-29 Ultrasonic image diagnostic apparatus, ultrasonic image forming method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010219733A JP2012071042A (en) 2010-09-29 2010-09-29 Ultrasonic image diagnostic apparatus, ultrasonic image forming method, and program

Publications (1)

Publication Number Publication Date
JP2012071042A true JP2012071042A (en) 2012-04-12

Family

ID=46167517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010219733A Abandoned JP2012071042A (en) 2010-09-29 2010-09-29 Ultrasonic image diagnostic apparatus, ultrasonic image forming method, and program

Country Status (1)

Country Link
JP (1) JP2012071042A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013176228A1 (en) * 2012-05-25 2013-11-28 富士フイルム株式会社 Ultrasound diagnostic device, sound velocity derivation method and program
JP2023549450A (en) * 2020-10-23 2023-11-27 ディープサイト テクノロジー インコーポレイテッド Image composition for mixed transducer arrays

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006078408A (en) * 2004-09-10 2006-03-23 Toyohashi Univ Of Technology Ultrasonic image inspection method, ultrasonic image inspection apparatus
JP2010099452A (en) * 2008-09-25 2010-05-06 Fujifilm Corp Ultrasound diagnostic apparatus and ultrasound diagnostic method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006078408A (en) * 2004-09-10 2006-03-23 Toyohashi Univ Of Technology Ultrasonic image inspection method, ultrasonic image inspection apparatus
JP2010099452A (en) * 2008-09-25 2010-05-06 Fujifilm Corp Ultrasound diagnostic apparatus and ultrasound diagnostic method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013176228A1 (en) * 2012-05-25 2013-11-28 富士フイルム株式会社 Ultrasound diagnostic device, sound velocity derivation method and program
JP2013244221A (en) * 2012-05-25 2013-12-09 Fujifilm Corp Ultrasonic diagnostic equipment, sound velocity derivation method, and program
CN104302231A (en) * 2012-05-25 2015-01-21 富士胶片株式会社 Ultrasound diagnostic device, sound velocity derivation method and program
JP2023549450A (en) * 2020-10-23 2023-11-27 ディープサイト テクノロジー インコーポレイテッド Image composition for mixed transducer arrays

Similar Documents

Publication Publication Date Title
JP5613773B2 (en) Ultrasonic image generation apparatus, ultrasonic image generation method and program
JP5389722B2 (en) Ultrasonic diagnostic apparatus and method for operating the same
JP2010099452A (en) Ultrasound diagnostic apparatus and ultrasound diagnostic method
JP5948411B2 (en) Ultrasonic signal processing apparatus and ultrasonic signal processing method
JP5623160B2 (en) Ultrasonic diagnostic apparatus and method for operating the same
JP2012071037A (en) Ultrasonic image diagnostic apparatus, ultrasonic image forming method, and program
JP2011072566A (en) Ultrasound diagnostic apparatus and signal processing method thereof
JP5623157B2 (en) Ultrasonic diagnostic apparatus and method for operating the same
JP2010234013A (en) Ultrasonic diagnostic apparatus and ultrasonic diagnostic method
US8398548B2 (en) Ultrasound diagnostic apparatus and ultrasound diagnostic method
JP5976399B2 (en) Ultrasonic diagnostic apparatus and data processing method
US10788459B2 (en) Ultrasound diagnostic apparatus, ultrasound image generation method, and recording medium
JP2012071042A (en) Ultrasonic image diagnostic apparatus, ultrasonic image forming method, and program
JP2013244162A (en) Ultrasonograph
JP2013102959A (en) Ultrasonic diagnostic apparatus and method
WO2013073514A1 (en) Ultrasonic diagnosis device and method
JP2013244161A (en) Ultrasonograph
JP5681755B2 (en) Ultrasonic diagnostic apparatus and method for operating the same
JP5797235B2 (en) Ultrasonic diagnostic apparatus and method of operating ultrasonic diagnostic apparatus
JP2013255598A (en) Apparatus and method for ultrasonic diagnosis
JP2013255599A (en) Apparatus and method for ultrasonic diagnosis
JP2013244195A (en) Ultrasonic signal processing apparatus and ultrasonic signal processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20131209