[go: up one dir, main page]

JP2019154654A - Ultrasonic imaging device and ultrasonic image processing system - Google Patents

Ultrasonic imaging device and ultrasonic image processing system Download PDF

Info

Publication number
JP2019154654A
JP2019154654A JP2018043272A JP2018043272A JP2019154654A JP 2019154654 A JP2019154654 A JP 2019154654A JP 2018043272 A JP2018043272 A JP 2018043272A JP 2018043272 A JP2018043272 A JP 2018043272A JP 2019154654 A JP2019154654 A JP 2019154654A
Authority
JP
Japan
Prior art keywords
image
processing unit
section
ultrasonic
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018043272A
Other languages
Japanese (ja)
Other versions
JP6993907B2 (en
Inventor
美咲 広島
Misaki Hiroshima
美咲 広島
貞一郎 池田
Teiichiro Ikeda
貞一郎 池田
栗原 浩
Hiroshi Kurihara
浩 栗原
淳一 塩川
Junichi Shiokawa
淳一 塩川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018043272A priority Critical patent/JP6993907B2/en
Publication of JP2019154654A publication Critical patent/JP2019154654A/en
Application granted granted Critical
Publication of JP6993907B2 publication Critical patent/JP6993907B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

【課題】ユーザのスキルにかかわらず、短時間で精度よく、被検体の所定の断面の画像取得や計測を行う。【解決手段】被検体からの超音波を受信した超音波探触子が出力する受信信号を受け取って、被検体の異なる断面の画像を第1処理部が時系列に生成する。第1処理部の生成した画像が、被検体の予め定められた目的断面の画像かどうかを、時系列に生成された画像ごとにフレーム判定部が判定する。フレーム判定部が、第1処理部の生成した画像が目的断面の画像であると判定した場合、第2処理部はその画像およびその画像が生成された元の受信信号の少なくとも一方に対して、所定の処理を行う。【選択図】図1PROBLEM TO BE SOLVED: To acquire and measure an image of a predetermined cross section of a subject in a short time and accurately regardless of the skill of the user. SOLUTION: A first processing unit generates images of different cross sections of a subject in chronological order by receiving a received signal output by an ultrasonic probe that has received ultrasonic waves from the subject. The frame determination unit determines whether or not the image generated by the first processing unit is an image of a predetermined target cross section of the subject for each image generated in time series. When the frame determination unit determines that the image generated by the first processing unit is an image of a target cross section, the second processing unit receives the image and at least one of the original received signals from which the image was generated. Perform a predetermined process. [Selection diagram] Fig. 1

Description

本発明は、超音波を用いて被検体内の画像を撮像する超音波撮像技術に関する。   The present invention relates to an ultrasound imaging technique for capturing an image in a subject using ultrasound.

超音波撮像技術とは、超音波(聞くことを意図しない音波、一般的には20kHz以上の高周波数の音波)を用いて人体をはじめとする被検体の内部を非侵襲的に画像化する技術である。
医用超音波撮像装置は,超音波撮像技術を用いて人体の内部を画像化したり計測する機能を備えている。例えば、人体内部の超音波の反射強度を白黒画像として表示するBモード撮像や,超音波のドップラー効果を利用して血管内の血流速度を計測するドップラー計測や,取得したBモード画像から組織の動きをトラッキングし,心臓の収縮拡張能指標を計測するなど,Bモードおよび計測アプリケーションによって生体の形態的または動的な特徴を取得して医師や技師に提示する機能を備えている。これにより、医師による医学的診断を補助することができる。
The ultrasound imaging technique is a technique for non-invasively imaging the inside of a subject such as a human body using ultrasound (a sound wave not intended to be heard, generally a sound wave having a high frequency of 20 kHz or higher). It is.
A medical ultrasonic imaging apparatus has a function of imaging or measuring the inside of a human body using an ultrasonic imaging technique. For example, B-mode imaging that displays the reflection intensity of ultrasonic waves inside the human body as a black and white image, Doppler measurement that measures blood flow velocity in the blood vessel using the ultrasonic Doppler effect, and tissue from the acquired B-mode image It has a function to acquire the morphological or dynamic characteristics of a living body by the B mode and measurement application and to present it to a doctor or an engineer, such as tracking the movement of the heart and measuring the contraction / expansion index of the heart. Thereby, medical diagnosis by a doctor can be assisted.

医用超音波撮像装置を使用する医師や技師等のユーザは、この装置の超音波探触子を片手で把持して被検体の体表で移動させながら、装置によってリアルタイムに時系列に生成されるBモード画像やドップラー計測画像等の超音波画像をモニターで観察し,表示されている超音波画像等に基づいてその場で診断を行う。さらに、ユーザは、超音波探触子の移動を所望の位置で停止させ、超音波探触子を把持している手とは逆側の手で操作パネルのフリーズボタンを押し、表示されている超音波画像を静止させて(フリーズモード)、その静止画像を保存したり、静止画像上で被検体の所定部位の計測を行ったり、撮像条件を調整したりする。   A user such as a doctor or an engineer who uses a medical ultrasonic imaging apparatus generates the time-series data in real time by the apparatus while holding the ultrasonic probe of the apparatus with one hand and moving it on the body surface of the subject. An ultrasonic image such as a B-mode image or a Doppler measurement image is observed on a monitor, and diagnosis is performed on the spot based on the displayed ultrasonic image or the like. Further, the user stops the movement of the ultrasonic probe at a desired position, and presses the freeze button on the operation panel with the hand opposite to the hand holding the ultrasonic probe, and the display is displayed. The ultrasonic image is stopped (freeze mode), the still image is stored, a predetermined part of the subject is measured on the still image, and imaging conditions are adjusted.

特許文献1には、ユーザがフリーズボタンを操作してフリーズモードに切り替えて、静止画像を表示している間に、その静止画像の元となった受信データに追加の処理を行って、現在の静止画像よりも、より解像度の高い画像を生成して表示するシステムが開示されている。   In Patent Document 1, while the user operates the freeze button to switch to the freeze mode and displays a still image, additional processing is performed on the received data that is the source of the still image, A system that generates and displays an image with higher resolution than a still image is disclosed.

特許第5814646号公報Japanese Patent No. 5814646

上述のように医用超音波撮像装置は,ユーザが片手で超音波探触子を把持して被検体の体表で移動させながら、リアルタイムで時系列にモニターに表示される超音波画像を観察し,その場で診断を行ったり,所望の位置で超音波探触子を静止させ、逆側の手で操作パネルを操作して必要な画像や計測結果を保存したりする。そのためユーザには、超音波探触子を体表で移動させるルートや停止させる位置を決定するための解剖学的な知識や、必要な計測を行うための装置の操作方法の習得や、適した撮像条件の知識等の高度なスキルが要求される。具体的には、例えば胎児超音波検査の場合には、BPD(児頭大横径)、FL(大腿骨長)、AC(腹部周囲長)等の複数の部位のサイズを、それぞれのサイズ計測に適切な断面画像上で計測する必要がある。また、心臓エコー検査の場合には、短軸像、長軸像および心尖部四腔像の撮像や、LAD(左房径)、RVD(右房径)、AOD(大動脈径)、IVC(下大静脈径)、IVST(心室中隔厚)等の多数の部位のサイズが、所定の断面の画像上で計測される。これらの項目を計測する断面の位置や向きは、学会等のガイドラインによって定められているため、ユーザはこれらの多数の計測項目と、その測定断面の位置や向きを把握し、超音波探触子をその位置まで移動させて正確に停止させなければならない。   As described above, a medical ultrasonic imaging apparatus observes ultrasonic images displayed on a monitor in real time in a time series while a user grasps an ultrasonic probe with one hand and moves it on the body surface of the subject. Diagnosis is performed on the spot, the ultrasonic probe is stopped at a desired position, and the operation panel is operated with the opposite hand to store necessary images and measurement results. For this reason, the user needs to learn the anatomical knowledge to determine the route to move the ultrasound probe on the body surface and the position to stop, the operation method of the device to perform the necessary measurements, Advanced skills such as knowledge of imaging conditions are required. Specifically, for example, in the case of fetal ultrasonography, the sizes of a plurality of parts such as BPD (child head large lateral diameter), FL (femoral length), and AC (abdominal circumference) are measured. It is necessary to measure on an appropriate cross-sectional image. In the case of echocardiography, short-axis images, long-axis images, and apical four-chamber images, LAD (left atrial diameter), RVD (right atrial diameter), AOD (aortic diameter), IVC (lower) The size of a large number of parts such as the vena cava diameter and IVST (ventricular septal thickness) is measured on an image of a predetermined cross section. Since the position and orientation of the cross section for measuring these items are determined by guidelines such as academic societies, the user knows these many measurement items and the position and orientation of the measurement cross section, and the ultrasonic probe Must be moved to that position and stopped exactly.

このように、ユーザには、解剖学的な知識、ならびに、超音波撮像装置の操作や撮像条件の設定の習熟が要求されるため、検査時間,画像の質ならびに検査精度がユーザのスキルに左右されるという問題がある。   In this way, the user is required to be familiar with anatomical knowledge and operation of the ultrasonic imaging apparatus and setting of imaging conditions, so that examination time, image quality, and examination accuracy depend on user skills. There is a problem of being.

本発明の目的は、ユーザのスキルにかかわらず、短時間で精度よく、被検体の所定の断面の画像取得や計測を行うことにある。   An object of the present invention is to perform image acquisition and measurement of a predetermined cross section of a subject with high accuracy in a short time regardless of the skill of a user.

上記目的を達成するために、本発明の超音波撮像装置では、被検体からの超音波を受信した超音波探触子が出力する受信信号を受け取って、被検体の異なる断面の画像を時系列に生成する第1処理部と、第1処理部の生成した画像が、被検体の予め定められた目的断面の画像かどうかを、時系列に生成された画像ごとに判定するフレーム判定部と、フレーム判定部が、第1処理部の生成した画像が目的断面の画像であると判定した場合、その画像およびその画像が生成された元の受信信号の少なくとも一方に対して、所定の処理を行う第2処理部とを有する。   In order to achieve the above object, in the ultrasonic imaging apparatus of the present invention, a reception signal output from an ultrasonic probe that receives ultrasonic waves from a subject is received, and images of different cross-sections of the subject are time-series. A first processing unit to be generated, a frame determination unit for determining whether the image generated by the first processing unit is an image of a predetermined target cross section of the subject for each image generated in time series, When the frame determination unit determines that the image generated by the first processing unit is an image of the target cross section, the frame determination unit performs predetermined processing on at least one of the image and the original reception signal from which the image is generated A second processing unit.

本発明によれば、ユーザのスキルにかかわらず、短時間で精度よく、被検体の所定の断面の画像取得や計測を行うことができる。   According to the present invention, it is possible to acquire and measure an image of a predetermined cross section of a subject accurately in a short time regardless of the skill of the user.

第1の実施形態の超音波撮像装置のブロック図1 is a block diagram of an ultrasonic imaging apparatus according to the first embodiment. 第1の実施形態の超音波撮像装置の動作を示すフローチャートThe flowchart which shows operation | movement of the ultrasonic imaging apparatus of 1st Embodiment. 第2の実施形態の超音波撮像装置のブロック図Block diagram of an ultrasonic imaging apparatus according to the second embodiment 第2の実施形態のフレーム判定部と第2処理部の動作を示すフローチャートThe flowchart which shows operation | movement of the frame determination part and 2nd process part of 2nd Embodiment. 図4の一部のステップの詳しい動作を示すフローチャートThe flowchart which shows detailed operation | movement of the one part step of FIG. (a)および(b)第2の実施形態の目的断面を例示する図(A) And (b) The figure which illustrates the objective cross section of 2nd Embodiment 第3の実施形態の超音波撮像装置におけるバックグラウンド計測の動作を例示する図The figure which illustrates operation | movement of the background measurement in the ultrasonic imaging device of 3rd Embodiment 第3の実施形態の超音波撮像装置における設定画面を例示する図The figure which illustrates the setting screen in the ultrasonic imaging device of 3rd Embodiment 図8の設定画面に対応する目的断面と計測内容を例示する図The figure which illustrates the target section and measurement contents corresponding to the setting screen of FIG. 第3の実施形態の制御部の動作の一部を示すフローチャートThe flowchart which shows a part of operation | movement of the control part of 3rd Embodiment. 第4の実施形態の超音波撮像装置における撮像パラメータの最適化を行う動作を例示する図The figure which illustrates the operation | movement which optimizes the imaging parameter in the ultrasonic imaging device of 4th Embodiment 第4の実施形態において第2処理部が生成するテーブルを例示する図The figure which illustrates the table which a 2nd processing part generates in a 4th embodiment. 第4の実施形態において第2処理部の撮像パラメータの最適化の動作を例示するフローチャートThe flowchart which illustrates the operation | movement of the optimization of the imaging parameter of a 2nd process part in 4th Embodiment. 第4の実施形態において画像に設定されたコントラスト判定部位と、分解能判定部位とを例示する図The figure which illustrates the contrast judgment part and resolution judgment part which were set to the picture in a 4th embodiment 第4の実施形態において画質改善寄与率の算出動作を例示するフローチャートThe flowchart which illustrates the calculation operation of the image quality improvement contribution ratio in the fourth embodiment

本発明の一実施形態の超音波撮像装置について説明する。   An ultrasonic imaging apparatus according to an embodiment of the present invention will be described.

<<第1の実施形態>>
第1の実施形態の超音波撮像装置について、図1、図2を用いて説明する。図1は第1の実施形態における超音波撮像装置100のブロック図である。図2は、超音波撮像装置の動作を示すフローチャートである。
<< First Embodiment >>
The ultrasonic imaging apparatus according to the first embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a block diagram of an ultrasonic imaging apparatus 100 according to the first embodiment. FIG. 2 is a flowchart showing the operation of the ultrasonic imaging apparatus.

第1の実施形態の超音波撮像装置100は、図1に示すように、第1処理部1と、フレーム判定部3と、第2処理部2とを備えている。第1処理部1には、超音波探触子4が接続されている。超音波探触子4は、被検体5に超音波を照射し、被検体5から戻る反射波や透過波や散乱波等の超音波を受信する。   As shown in FIG. 1, the ultrasonic imaging apparatus 100 according to the first embodiment includes a first processing unit 1, a frame determination unit 3, and a second processing unit 2. An ultrasonic probe 4 is connected to the first processing unit 1. The ultrasonic probe 4 irradiates the subject 5 with ultrasonic waves and receives ultrasonic waves such as reflected waves, transmitted waves, and scattered waves returning from the subject 5.

超音波撮像装置100の各部の動作を図2のフローチャートを用いて説明する。   The operation of each part of the ultrasonic imaging apparatus 100 will be described with reference to the flowchart of FIG.

まず、第1処理部1は、被検体5からの超音波を受信した超音波探触子4が出力する受信信号を受け取って、被検体5の断面の画像を時系列に生成する(ステップ201)。   First, the first processing unit 1 receives a reception signal output from the ultrasonic probe 4 that has received an ultrasonic wave from the subject 5, and generates a cross-sectional image of the subject 5 in time series (step 201). ).

つぎに、フレーム判定部3は、第1処理部1の生成した画像(フレーム)が、被検体5の予め定められた目的断面の画像かどうかを判定する(ステップ202)。目的断面は、学会等のガイドラインにのっとって解剖学的に予め定められた断面等である。例えば、フレーム判定部3は、第1処理部1が時系列に生成した画像ごとに、目的断面の画像かどうかを判定してもよいし、所定数の画像(例えば、5画像)ごとに1つの画像を選択して、目的断面の画像かどうかを判定してもよい。   Next, the frame determination unit 3 determines whether the image (frame) generated by the first processing unit 1 is an image of a predetermined target cross section of the subject 5 (step 202). The target cross section is an anatomically predetermined cross section according to a guideline such as an academic society. For example, the frame determination unit 3 may determine whether the image is a target slice image for each image generated by the first processing unit 1 in time series, or 1 for every predetermined number of images (for example, five images). One image may be selected to determine whether the image is a target cross-sectional image.

フレーム判定部3が、第1処理部1の生成した画像が目的断面の画像であると判定した場合、第2処理部2は、その画像およびその画像の元となった受信信号の少なくとも一方に対して、所定の処理を行う(ステップ203)。   When the frame determination unit 3 determines that the image generated by the first processing unit 1 is an image of the target cross section, the second processing unit 2 applies at least one of the image and the reception signal that is the origin of the image. On the other hand, predetermined processing is performed (step 203).

第2処理部が行う所定の処理は、どのような処理であってもよい。例えば、目的断面の画像において、その目的断面に応じて予め定めておいた被検体5の部位のサイズや面積等を計測する処理や、第1処理部1が生成した目的断面の画像よりも高解像度の画像を生成する処理や、目的断面の画像の画質(例えば、コントラストや分解能等)を向上させるための撮像条件を求める処理を第2処理部2において行うことができる。   The predetermined process performed by the second processing unit may be any process. For example, in the image of the target cross section, processing that measures the size, area, etc. of the site of the subject 5 that is predetermined according to the target cross section, or higher than the image of the target cross section generated by the first processing unit 1. The second processing unit 2 can perform a process for generating an image with a resolution and a process for obtaining an imaging condition for improving the image quality (for example, contrast and resolution) of the image of the target cross section.

第2処理部2の処理は、第1処理部1の画像生成処理と並列して行うことも可能であるし、第1処理部1の画像生成処理を停止させて行うことも可能である。第2処理部1による処理を第1処理部による画像生成処理と並列させて行った場合には、第1処理部1が生成する時系列な画像を表示部6に表示させながら第2処理部2による処理を行うことができる。これにより、ユーザは、被検体5の表面で超音波探触子4の移動させる動作を継続することができるため、第1処理部1により時系列に生成される画像の観察を続けながら、バックグラウンドで第2処理部2による処理を実行させ、処理結果を取得することができる。   The processing of the second processing unit 2 can be performed in parallel with the image generation processing of the first processing unit 1 or can be performed by stopping the image generation processing of the first processing unit 1. When the processing by the second processing unit 1 is performed in parallel with the image generation processing by the first processing unit, the second processing unit displays the time-series images generated by the first processing unit 1 on the display unit 6. 2 can be performed. As a result, the user can continue the operation of moving the ultrasound probe 4 on the surface of the subject 5, so that the user can continue to observe the images generated in time series by the first processing unit 1. The processing by the second processing unit 2 can be executed on the ground, and the processing result can be acquired.

一方、第1処理部1の画像処理を停止させて第2処理部2の処理を行う場合には、ユーザは超音波探触子3の移動を停止させて、静止画像を観察しながら所望の処理を選択する等ができ、ユーザの指示に従って第2処理部2に処理を実行させることが可能である。   On the other hand, when the image processing of the first processing unit 1 is stopped and the processing of the second processing unit 2 is performed, the user stops the movement of the ultrasonic probe 3 and observes a still image as desired. A process can be selected, and the second processing unit 2 can execute a process in accordance with a user instruction.

フレーム判定部3は、第1処理部1が生成した画像が目的断面の画像かどうかを判定するために、例えば、フレーム判定部3が第1処理部1が生成した画像の特徴量を抽出し、予め定めておいた特徴量、または、目的断面の画像について予め求めておいた特徴量と比較する構成とすることができる。   For example, the frame determination unit 3 extracts the feature amount of the image generated by the first processing unit 1 in order to determine whether the image generated by the first processing unit 1 is an image of the target cross section. Further, it is possible to adopt a configuration in which a predetermined feature amount or a feature amount obtained in advance for an image of the target cross section is compared.

本実施形態の超音波撮像装置では、生成した画像が目的断面の画像かどうかをフレーム判定部が判定するため、ユーザの解剖学的知識やスキルに依らず、被検体の所定の断面について、超音波画像の取得や計測を行うことができる。   In the ultrasonic imaging apparatus according to the present embodiment, since the frame determination unit determines whether the generated image is an image of the target cross section, the superimposition of a predetermined cross section of the subject is not dependent on the anatomical knowledge or skill of the user. Acquisition and measurement of a sound wave image can be performed.

具体的には、例えばユーザが超音波探触子4の操作を行っている間に,ユーザがボタン操作などを通じて画像調整や計測を行うことなく,バックグラウンドで目的断面について、好ましい撮像条件に調整された画像を取得したり,必要な計測を行うことが可能になる。また、バックグラウンドではなく、ユーザの指示に従って、目的断面における静止画像の取得や計測を行うことも可能である。よって、ユーザの操作の負担と検査時間を大幅に改善することが可能になる。   Specifically, for example, while the user is operating the ultrasound probe 4, the user adjusts the target cross section to a preferable imaging condition in the background without performing image adjustment or measurement through button operation or the like. The acquired image can be acquired and necessary measurement can be performed. It is also possible to acquire and measure a still image on a target cross section according to a user instruction instead of the background. Therefore, it is possible to greatly improve the burden on the user's operation and the inspection time.

しかも、このとき第1処理部1と第2処理部2が並行で画像生成や信号処理を行うことが可能であるため、ユーザは、常にリアルタイムに撮像断面を表示部で確認して超音波探触子4の操作を継続することができる。   In addition, since the first processing unit 1 and the second processing unit 2 can perform image generation and signal processing in parallel at this time, the user always confirms the imaging cross section on the display unit in real time and performs ultrasonic search. The operation of the touch element 4 can be continued.

以下、本実施形態の超音波撮像装置の具体的な実施形態について説明する。   Hereinafter, specific embodiments of the ultrasonic imaging apparatus of the present embodiment will be described.

<<第2の実施形態>>
第2の実施形態の超音波撮像装置について説明する。この超音波撮像装置は、第1処理部1が時系列に画像生成処理を行うのに並行して,第2処理部2がフレーム判定結果に基づいて自動で計測処理を実行する。その際、第2処理部2は、表示部6における表示等により、計測結果をユーザに知らせる。
<< Second Embodiment >>
An ultrasonic imaging apparatus according to the second embodiment will be described. In this ultrasonic imaging apparatus, in parallel with the first processing unit 1 performing image generation processing in time series, the second processing unit 2 automatically executes measurement processing based on the frame determination result. At that time, the second processing unit 2 notifies the user of the measurement result by display on the display unit 6 or the like.

第2の実施形態の超音波撮像装置は、第1の実施形態の図1の超音波撮像装置と同様の第1処理部1とフレーム判定部3と第2処理部に加えて、メモリ17をさらに備えている。以下、これら各部の具体的な構成について説明する。   The ultrasonic imaging apparatus of the second embodiment includes a memory 17 in addition to the first processing unit 1, the frame determination unit 3, and the second processing unit similar to the ultrasonic imaging apparatus of FIG. 1 of the first embodiment. It has more. Hereinafter, specific configurations of these units will be described.

<第1処理部1>
まず第1処理部1について、その構成及び処理内容を図3を用いて説明する。第1処理部1は、図3のように送信ビームフォーマー11と、受信部12と、受信ビームフォーマー13と、信号処理部14と、バックエンド処理部15と、送受切替部18と、全体を制御する制御部16と、ユーザーインタフェース19と、制御部16を備えている。第1処理部1の構成および動作は、公知の超音波撮像装置と同様であるので、ここでは簡単に以下説明する。
<First processing unit 1>
First, the configuration and processing contents of the first processing unit 1 will be described with reference to FIG. As shown in FIG. 3, the first processing unit 1 includes a transmission beamformer 11, a reception unit 12, a reception beamformer 13, a signal processing unit 14, a back-end processing unit 15, a transmission / reception switching unit 18, A control unit 16 that controls the whole, a user interface 19, and a control unit 16 are provided. The configuration and operation of the first processing unit 1 are the same as those of a known ultrasonic imaging apparatus, and will be briefly described below.

送信ビームフォーマー11は、ユーザーインタフェース19を介してユーザから受け付けた送信焦点等を定める所定の撮像条件にしたがって、送信信号(電気信号)を生成し、送受切り替え部16を介して超音波探触子4の各超音波素子に出力する。超音波探触子4の各超音波素子は、送信信号を超音波に変換して出力する。これにより、超音波探触子4から、被検体5の撮像領域に対して、超音波ビームが送信される。   The transmission beamformer 11 generates a transmission signal (electrical signal) according to a predetermined imaging condition that determines a transmission focus received from the user via the user interface 19, and performs an ultrasonic probe via the transmission / reception switching unit 16. Output to each ultrasonic element of the child 4. Each ultrasonic element of the ultrasonic probe 4 converts a transmission signal into an ultrasonic wave and outputs it. Thereby, an ultrasonic beam is transmitted from the ultrasonic probe 4 to the imaging region of the subject 5.

次に、超音波ビームの送信を受けた撮像領域からは超音波(エコーや散乱波等)が超音波探触子4に戻る。超音波探触子4の各超音波素子は、これを受信して、受信信号(電気信号)に変換する。受信信号は、受信部12に送られる。   Next, ultrasonic waves (echoes, scattered waves, etc.) return to the ultrasonic probe 4 from the imaging region that has received the transmission of the ultrasonic beam. Each ultrasonic element of the ultrasonic probe 4 receives this and converts it into a received signal (electric signal). The received signal is sent to the receiving unit 12.

受信部12は、超音波素子の受信電圧を、アナログ/デジタル変換(ADC:Analog Digital Converter)により一定のサンプリング周期をもったデジタル信号に変換する。さらに受信部12は、データインタフェースを有し、デジタル信号を受信ビームフォーマーに送るための伝送規格に変換し、タイミングを制御する等する。これにより、受信部12は、各超音波素子の受信信号をデジタルの受信チャンネルデータに変換して、受信ビームフォーマー13やメモリ部17に伝送する。   The receiving unit 12 converts the received voltage of the ultrasonic element into a digital signal having a constant sampling period by analog / digital conversion (ADC). Further, the receiving unit 12 has a data interface, converts a digital signal into a transmission standard for sending to a reception beamformer, and controls timing. As a result, the reception unit 12 converts the reception signal of each ultrasonic element into digital reception channel data and transmits the digital reception channel data to the reception beam former 13 and the memory unit 17.

受信ビームフォーマー13は、受信チャンネルデータを処理することにより、撮像条件にしたがって、撮像領域に設定された複数の受信焦点について、結像データを生成する。一般に受信焦点は、送信ビームの照射範囲ごとに、1本または複数本のラインに沿って密に配置される。ラインにおける複数の受信焦点の配置間隔(周期)は、受信サンプリング間隔と同様の、または数倍に間引いた間隔である。このような1送信あたり、1本以上のラインに生成される結像データを受信ラインデータなどと呼ぶ。   The reception beamformer 13 processes the reception channel data to generate imaging data for a plurality of reception focal points set in the imaging region according to the imaging conditions. In general, the reception focal points are densely arranged along one or more lines for each irradiation range of the transmission beam. The arrangement interval (cycle) of the plurality of reception focal points in the line is the same as the reception sampling interval or an interval thinned out several times. Such imaging data generated on one or more lines per transmission is called reception line data.

受信チャンネルデータから受信ラインデータを生成する処理方法としては、どのような方法を用いてもよいが、例えば遅延加算法を用いることができる。遅延加算法は、超音波素子ごとの受信チャンネルデータを遅延させ位相を整えた後、受信チャンネル信号同士を加算する方法である。超音波素子ごとの受信チャンネルデータの遅延量は、撮像領域における受信焦点の位置の組織で反射された超音波エコーが、同位相で各超音波素子に到達するのに要する時間の、超音波素子ごとの時間差と等しくなるように予め設定されている。遅延量は、受信焦点ごとに異なり、受信焦点ごとに各受信チャンネルデータの遅延および加算の処理を繰り返す。このため、各受信チャンネルデータに与える遅延量は、受信焦点のサンプリング周期で経時的に変化させる。このように受信ラインに沿って経時的に受信焦点を変化させながら、遅延および加算の処理を繰り返して、結像データを生成することをダイナミックフォーカスという。ダイナミックフォーカスにより、撮像領域の浅部から深部まで、仮想的に所定のビーム幅の均質な受信ビーム(受信ラインデータ)が形成される。   As a processing method for generating the reception line data from the reception channel data, any method may be used. For example, a delay addition method may be used. The delay addition method is a method of adding reception channel signals after delaying reception channel data for each ultrasonic element to adjust the phase. The delay amount of the reception channel data for each ultrasonic element is the ultrasonic element of the time required for the ultrasonic echo reflected by the tissue at the reception focus position in the imaging region to reach each ultrasonic element in the same phase. Each time difference is set in advance to be equal. The amount of delay differs for each reception focus, and the process of delaying and adding each reception channel data is repeated for each reception focus. For this reason, the delay amount given to each reception channel data is changed with time in the sampling period of the reception focus. The generation of imaging data by repeating the delay and addition processes while changing the reception focus over time along the reception line is called dynamic focus. By dynamic focusing, a uniform reception beam (reception line data) having a predetermined beam width is virtually formed from a shallow part to a deep part of the imaging region.

次に、信号処理部14は、撮像・計測モードに応じて必要な様々な信号処理を行う。信号処理としては、例えば、受信ラインデータのSN比(シグナルノイズ比)を向上させるなどの目的で、目的の周波数成分以外を除去するバンドパスフィルター処理やローパスフィルター処理を行う。また受信ラインデータの振幅値は、直交検波処理によって、実部であるI成分と虚部であるQ成分からなるIQデータに変換される。これにより、Bモードで表示する振幅成分や、ドップラー計測で用いる位相成分が検出可能になる。   Next, the signal processing unit 14 performs various signal processing necessary according to the imaging / measurement mode. As the signal processing, for example, bandpass filter processing or lowpass filter processing for removing components other than the target frequency component is performed for the purpose of improving the SN ratio (signal noise ratio) of the reception line data. The amplitude value of the reception line data is converted into IQ data composed of an I component that is a real part and a Q component that is an imaginary part by orthogonal detection processing. As a result, the amplitude component displayed in the B mode and the phase component used in Doppler measurement can be detected.

また、信号処理部14は、開口合成撮像(STA:Synthetic Transmit Aperture)を行うことができる。開口合成撮像は、Bモードの撮像手法の一つであり、複数の送信間の受信信号を合成することで、仮想的に送信開口を拡大し、高分解能な画像を得ることができる。すなわち、開口合成撮像では、信号処理部14は、複数の異なる送信でそれぞれ得られた同一の位置の受信ラインデータをコヒーレントに合成する。合成後の受信ラインデータを用いて、1フレームの画像を形成する。   Further, the signal processing unit 14 can perform synthetic aperture aperture (STA). Aperture synthesis imaging is one of the B-mode imaging methods, and by synthesizing received signals between a plurality of transmissions, a transmission aperture can be virtually enlarged to obtain a high-resolution image. That is, in aperture synthesis imaging, the signal processing unit 14 coherently synthesizes reception line data at the same position obtained by a plurality of different transmissions. An image of one frame is formed using the received line data after combining.

また、信号処理部14は、コンパウンド処理により高分解能な画像を得ることもできる。一般に、開口合成を行っていない受信ラインデータで構成される画像は、低分解能画像(LRI:Low Resolution Image)と呼ばれる。コンパウンド処理では、信号処理部14は、異なるN回の送信でそれぞれ生成された低分解能画像を、受信領域が重なり合う同一の受信焦点についてインコヒーレントに加算し、高分解能画像(HRI:High Resolution Image)を生成する。コンパウンド処理は、受信焦点で振幅値を加算するインコヒーレントな合成処理であるため、SN比が合成数Nに対応してN倍に増加する効果が得られる。よって、高SN比、高分解能の画像が得られる。また、コンパウンド処理において、合成効果を均一にするなどの目的で、受信焦点位置に応じた重み(LRI重み)を付与した上で加算を行う場合がある。   The signal processing unit 14 can also obtain a high-resolution image by compound processing. In general, an image composed of received line data that has not been subjected to aperture synthesis is called a low resolution image (LRI). In the compound processing, the signal processing unit 14 incoherently adds the low resolution images respectively generated by N different transmissions to the same reception focal point where the reception areas overlap, thereby obtaining a high resolution image (HRI). Is generated. Since the compound process is an incoherent combining process in which the amplitude value is added at the reception focal point, an effect that the SN ratio increases N times corresponding to the number N of combining is obtained. Therefore, a high SN ratio and high resolution image can be obtained. In addition, in the compound processing, there is a case where addition is performed after a weight (LRI weight) corresponding to the reception focus position is given for the purpose of making the synthesis effect uniform.

このように信号処理部14は、複数の送信ビームで生成された受信ラインデータに対し、撮像・計測モードに応じて、フィルタ処理、直交検波処理、コンパウンド処理などの様々な信号処理を行う。   As described above, the signal processing unit 14 performs various signal processing such as filter processing, quadrature detection processing, and compound processing on the reception line data generated by a plurality of transmission beams according to the imaging / measurement mode.

バックエンド処理部15は、信号処理部14で生成したIQデータなど用いて、撮像・計測モードごとの画像処理や計測・解析処理を行う。これにより、表示部6に表示するBモード画像や、ドップラー計測の速度スペクトルや、カラーフロー画像や、エラストグラフィーの弾性率などの計測データを生成する。   The back-end processing unit 15 performs image processing and measurement / analysis processing for each imaging / measurement mode using IQ data generated by the signal processing unit 14. Thus, measurement data such as a B-mode image to be displayed on the display unit 6, a Doppler measurement speed spectrum, a color flow image, and an elastic modulus of elastography are generated.

例えばバックエンド処理部15は、Bモード用の画像処理として、受信ライン方向およびライン深度方向に配列されている結像データに対して、内挿処理を行うことにより、撮像断面のX−Z実空間座標に変換する(スキャンコンバージョン処理)。   For example, as the B-mode image processing, the back-end processing unit 15 performs an interpolation process on the imaging data arranged in the reception line direction and the line depth direction, so that an XZ actual image of the imaging section is obtained. Convert to spatial coordinates (scan conversion process).

また例えば、ドップラー計測では、バックエンド処理部15は、同じ方向へ複数回に渡って送信ビームを照射して得られた、連続した時相のIQデータを用いて、それらの位相成分の変化を算出し、位相回転量を移動速度に変換する。これにより、バックエンド処理部15は、血流などの速度成分を計測する。   Further, for example, in Doppler measurement, the back-end processing unit 15 uses the continuous time-phase IQ data obtained by irradiating the transmission beam in the same direction a plurality of times, and changes the phase components thereof. Calculate and convert the phase rotation amount to the moving speed. Thereby, the back end process part 15 measures velocity components, such as a blood flow.

バックエンド処理部15で生成されたフレームごとのBモード画像データや、計測データは、シネデータと呼ばれる。表示部6は、複数のシネデータを受け取って、動画として表示する。   The B-mode image data and measurement data for each frame generated by the back-end processing unit 15 are called cine data. The display unit 6 receives a plurality of cine data and displays them as moving images.

以上のように、第1処理部1は、超音波の送受信を繰り返し、受信チャンネルデータをリアルタイムに処理することで、超音波断層像または、超音波計測結果を、リアルタイムに表示部に表示させる。   As described above, the first processing unit 1 repeats transmission / reception of ultrasonic waves and processes reception channel data in real time, thereby displaying an ultrasonic tomographic image or an ultrasonic measurement result on the display unit in real time.

<メモリ部17>
メモリ部17は、受信部12でサンプリングされた受信チャンネルデータ、第1処理部1で生成された受信ラインデータ、および、バックエンド処理部15で生成されたシネデータを受け取って記憶し、第2処理部2の第2処理制御部22の制御により、不要なデータは消去する。
<Memory unit 17>
The memory unit 17 receives and stores the reception channel data sampled by the reception unit 12, the reception line data generated by the first processing unit 1, and the cine data generated by the back-end processing unit 15. Unnecessary data is deleted under the control of the second processing control unit 22 of the processing unit 2.

メモリ部17は、本実施形態では、第1処理部1および第2処理部2の外に配置しているが、第1処理部1または第2処理部2の内部に配置してもよい。例えば、第1処理部1には、メモリとしてRAMを配置し、第2処理部2は、これを構成するプロセッサ(例えばGPU)上にオンチップメモリを配置する構成としてもよい。   In the present embodiment, the memory unit 17 is arranged outside the first processing unit 1 and the second processing unit 2, but may be arranged inside the first processing unit 1 or the second processing unit 2. For example, the first processing unit 1 may have a RAM as a memory, and the second processing unit 2 may have an on-chip memory arranged on a processor (for example, a GPU) that configures the RAM.

また、メモリ部17は、メモリサーバー上に配置されていてもよい。この場合、第1処理部1と第2処理部2が、共通のメモリサーバー上のメモリ部17にアクセスする。   The memory unit 17 may be arranged on a memory server. In this case, the first processing unit 1 and the second processing unit 2 access the memory unit 17 on the common memory server.

<フレーム判定部3>
フレーム判定部3は、第1処理部1が時系列に順次出力し、メモリ部17に格納されたシネデータを順次読み出して、フレーム(画像)の撮像断面が目的断面であるかどうかを判定し、目的断面である場合には、第2処理部2において処理を実行させる。目的断面のフレームではない場合には、第2処理部2における処理は実行させない。フレーム判定部3が、メモリ部17に格納されたシネデータを読み出すタイミングは、リアルタイムで判定を行うために、メモリ部17に格納された直後であることが望ましい。ただし、第2処理部2の処理にリアルタイム性が要求されてない処理である場合には、メモリ部17に格納された直後でなくても構わない。なお、フレーム判定部3の動作は、後で詳しく説明する。
<Frame determination unit 3>
The frame determination unit 3 sequentially outputs the cine data sequentially output in time series by the first processing unit 1, and determines whether the imaging section of the frame (image) is the target section. In the case of the target cross section, the second processing unit 2 executes the process. If it is not the frame of the target section, the processing in the second processing unit 2 is not executed. It is desirable that the timing at which the frame determination unit 3 reads the cine data stored in the memory unit 17 is immediately after it is stored in the memory unit 17 in order to perform determination in real time. However, when the process of the second processing unit 2 is a process that does not require real-time processing, it may not be immediately after being stored in the memory unit 17. The operation of the frame determination unit 3 will be described in detail later.

<第2処理部2>
次に第2処理部2について説明する。第2処理部2は、第2処理制御部22と、計算解析処理部20と、解析部26とを備えている。計算解析処理部20は、受信ビームフォーマー23、信号処理部24、バックエンド処理部25および解析部26の4つを本実施形態では配置しているが、所望の計算解析処理を行う構成が1つ以上配置されていればよい。
<Second processing unit 2>
Next, the second processing unit 2 will be described. The second processing unit 2 includes a second processing control unit 22, a calculation analysis processing unit 20, and an analysis unit 26. In the present embodiment, the calculation analysis processing unit 20 includes a reception beam former 23, a signal processing unit 24, a back-end processing unit 25, and an analysis unit 26. However, the calculation analysis processing unit 20 is configured to perform desired calculation analysis processing. One or more may be arranged.

第2処理制御部22は、フレーム判定部3の結果を受け取って、計算解析処理部20の実行する計算解析処理を制御する。   The second processing control unit 22 receives the result of the frame determination unit 3 and controls the calculation analysis processing executed by the calculation analysis processing unit 20.

計算解析処理部20は、メモリ部17に保存された、受信チャンネルデータ、受信ラインデータ、シネデータのうち1つ以上のデータを第2処理制御部22を介して受け取って、計算解析処理する。計算解析処理部20による処理は、第1処理部1による処理と平行して実行される。具体的には、計算解析処理部20は、遅延加算処理などの受信ビームフォーミング処理、直交検波や開口合成やコンパウンド処理などの信号処理、および、画像生成や速度計測等の各種バックエンド処理などの処理のうち、少なくとも1つ以上の処理を行う。これにより、例えば、計算解析処理部20の受信ビームフォーマー23、信号処理部24およびバックエンド処理部15は、第1処理部1の生成するBモード画像よりも画質の高いBモード画像の生成や、LRIデータなどBモード画像生成の途中段階の所望のデータや、ドップラーの速度データの生成などを行う。解析部26は、例えば、第1処理部1が生成したBモード画像またはバックエンド処理部25の出力するBモード画像の分解能やコントラストの算出、LRIデータや速度計測データの解析、および、画質改善に寄与する撮像パラメータの算出等の少なくとも1つ以上の評価指標の算出や解析を行い、算出結果や解析結果を、必要に応じて生成した画質の高いBモード画像等とともに第2処理制御部22にフィードバックする。   The calculation analysis processing unit 20 receives at least one of the reception channel data, reception line data, and cine data stored in the memory unit 17 via the second processing control unit 22 and performs calculation analysis processing. The processing by the calculation analysis processing unit 20 is executed in parallel with the processing by the first processing unit 1. Specifically, the calculation analysis processing unit 20 performs reception beam forming processing such as delay addition processing, signal processing such as quadrature detection, aperture synthesis, and compound processing, and various back-end processing such as image generation and velocity measurement. At least one of the processes is performed. Thereby, for example, the reception beamformer 23, the signal processing unit 24, and the back-end processing unit 15 of the calculation analysis processing unit 20 generate a B-mode image with higher image quality than the B-mode image generated by the first processing unit 1. Also, desired data such as LRI data in the middle of B-mode image generation, Doppler velocity data, and the like are generated. For example, the analysis unit 26 calculates the resolution and contrast of the B-mode image generated by the first processing unit 1 or the B-mode image output from the back-end processing unit 25, analyzes LRI data and velocity measurement data, and improves image quality. The second processing control unit 22 performs calculation and analysis of at least one evaluation index such as calculation of an imaging parameter that contributes to the image, and the calculation result and the analysis result together with a high-quality B-mode image generated as necessary. To give feedback.

第2処理制御部22は、計算解析処理部20から受け取った画質の改善されたBモード画像や、速度データや、画質改善に寄与する撮像パラメータ等のうち少なくとの1つ以上のデータをメモリ部17に返して記憶させる。また、画質が所望の評価値に達していなかった場合等所定の場合には、第2処理制御部22は、計算解析処理部20に、処理条件を変更してさらにBモード画像の生成等を行わせることも可能である。   The second processing control unit 22 stores at least one or more of the B-mode image with improved image quality received from the calculation analysis processing unit 20, speed data, imaging parameters that contribute to image quality improvement, and the like. Returned to the unit 17 for storage. In a predetermined case such as when the image quality has not reached the desired evaluation value, the second processing control unit 22 changes the processing conditions to the calculation analysis processing unit 20 to further generate a B-mode image. It is also possible to do this.

なお、第2処理部2は、第1処理部1と同様に超音波撮像装置本体に内蔵されていてもよいし,外付けされていてもよい。また本体とは別のサーバー上に第2の処理部2を配置し、ネットワークを通して、本体とデータの授受を行う構成としてもよい。   In addition, the 2nd process part 2 may be incorporated in the ultrasonic imaging device main body similarly to the 1st process part 1, and may be attached externally. Alternatively, the second processing unit 2 may be arranged on a server different from the main body so as to exchange data with the main body through a network.

また、第1処理部1、フレーム判定部3および第2処理部2は、その機能をソフトウエアによって実現することも可能であるし、その一部または全部をハードウエアによって実現することも可能である。ソフトウエアによって実現する場合、第1処理部1、フレーム判定部3および第2処理部は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサを内蔵するコンピュータシステムで構成され、CPU等が、メモリ16に予め格納されたプログラムを読み込んで実行することにより、各部の機能を実現する。また、ハードウエアによって実現する場合には、ASIC(Application Specific Integrated Circuit)のようなカスタムICや、FPGA(Field-Programmable Gate Array)のようなプログラマブルICを用いて第1処理部1、フレーム判定部3および第2処理部2を構成し、その動作を実現するように回路設計を行えばよい。   The functions of the first processing unit 1, the frame determination unit 3, and the second processing unit 2 can be realized by software, or part or all of the functions can be realized by hardware. is there. When realized by software, the first processing unit 1, the frame determination unit 3, and the second processing unit are configured by a computer system incorporating a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). The functions of the respective units are realized by reading and executing a program stored in advance in the memory 16. Further, when realized by hardware, the first processing unit 1 and the frame determination unit using a custom IC such as an application specific integrated circuit (ASIC) or a programmable IC such as a field-programmable gate array (FPGA). 3 and the second processing unit 2 are configured, and circuit design may be performed so as to realize the operation.

このように本実施形態では,第1処理部1と第2処理部2が並行でビームフォーミングや信号処理を行うことができる。また、フレーム判定部3は,第2処理部2で画像調整や計測等の処理を行う目的断面のフレームであるかどうかを判定するため、ユーザの解剖学的知識やスキルに左右されず、予め定めた目的断面の画像をフレーム判定部3が選択して、計測等を実行することができる。   Thus, in the present embodiment, the first processing unit 1 and the second processing unit 2 can perform beam forming and signal processing in parallel. In addition, since the frame determination unit 3 determines whether the second processing unit 2 is a frame of a target cross section for which processing such as image adjustment and measurement is performed, the frame determination unit 3 does not depend on the anatomical knowledge or skill of the user, and The frame determination unit 3 can select an image of the determined target cross section and perform measurement or the like.

また、ユーザは、第1処理部1が生成した画像をリアルタイムに表示部6において観察して撮像断面を確認しながら超音波探触子4の操作を継続し,その間に、フレーム判定部3が目的断面であると判定したフレームについて、第2処理部2において画像調整や計測を自動で実行することが可能になる。   In addition, the user continues the operation of the ultrasound probe 4 while observing the image generated by the first processing unit 1 in real time on the display unit 6 and confirming the imaging section, while the frame determination unit 3 For the frame determined to be the target cross section, the second processing unit 2 can automatically perform image adjustment and measurement.

<フレーム判定部3および第2処理部の具体的な動作の例>
本実施形態のフレーム判定部3および第2処理部2の動作の例について具体的に説明する。図4は、フレーム判定部3および第2処理部2の動作を示すフローチャート、図5は、フレーム判定部3の動作の詳細を示すフローチャート、図6(a)は、フレーム判定部3の目的断面が胎児における所定断面である例を、図6(b)は、目的的断面が心臓の所定断面である例をそれぞれ示す図である。
<Examples of Specific Operations of Frame Determination Unit 3 and Second Processing Unit>
An example of operations of the frame determination unit 3 and the second processing unit 2 of the present embodiment will be specifically described. 4 is a flowchart showing operations of the frame determination unit 3 and the second processing unit 2, FIG. 5 is a flowchart showing details of the operation of the frame determination unit 3, and FIG. FIG. 6B is a diagram showing an example in which the target cross section is a predetermined cross section of the heart.

なお、目的断面の例とは、例えば図6(a)に示すような胎児エコー診断において観察される胎児頭部断面や腹部断面や大腿骨断面、ならびに、図6(b)に示すような心エコー診断において観察される心尖四腔断面、心尖二腔断面、短軸像僧帽弁レベルなどがある。超音波診断において観察または計測すべき断面は、学会のガイドライン等によって解剖学的に定められている。   Examples of the target cross section include a fetal head cross section, an abdominal cross section, and a femoral cross section observed in a fetal echo diagnosis as shown in FIG. 6A, and a heart as shown in FIG. 6B. There are the apical four-chamber section, the apex two-chamber section, the short-axis mitral valve level, etc. observed in the echo diagnosis. The cross section to be observed or measured in the ultrasonic diagnosis is anatomically determined according to academic guidelines.

ユーザが超音波探触子4を被検体5の表面で移動させ、それに伴い第1処理部1が画像(シネデータ)をリアルタイムで時系列に生成し、生成されたシネデータは、メモリ部17に順次格納される。   The user moves the ultrasonic probe 4 on the surface of the subject 5, and accordingly, the first processing unit 1 generates images (cine data) in real time in time series, and the generated cine data is stored in the memory unit 17. Are stored sequentially.

図4のステップ401において、フレーム判定部3は,メモリ部17に格納されたシネデータのn番目のフレームを読み込む。そして、読み込んだフレームnが目的断面の画像であるかどうかを判定する(ステップ402、403)。リアルタイムに第2処理部2の処理を行うためには、フレームnが第1処理部1によってメモリ部17に格納された直後に、フレーム判定部3が読み出すことが望ましい。   In step 401 of FIG. 4, the frame determination unit 3 reads the nth frame of cine data stored in the memory unit 17. Then, it is determined whether or not the read frame n is an image of the target cross section (steps 402 and 403). In order to perform the processing of the second processing unit 2 in real time, it is desirable that the frame determination unit 3 reads out the frame n immediately after it is stored in the memory unit 17 by the first processing unit 1.

ステップ402、403の詳しい処理を図5を用いて説明する。ここでは、フレーム判定部3は、特徴量分析により判定を行う例について説明する。すなわち、目的断面Xについて予め用意された1以上の画像について求めておいた特徴量と、フレームnとの特徴量との一致の度合により、フレームnが目的断面であるか否かを判定する。予め用意された1以上の画像は、同一被検体5のものであっても、異なる被検体のものであってもよい。特徴量には、例えば、輝度分布の分析やエッジ形状の分析など、人為的に設定された特徴量や、機械学習手法により、予め用意された1以上の目的断面Xの画像から抽出された抽象的な特徴量などを用いる。予め用意された1以上の目的断面の画像について、所定の複数の特徴量(例えば、輝度分布、エッジ形状、抽象的な特徴量)について分析を行い、予め特徴量マップを得ておく。   Detailed processing in steps 402 and 403 will be described with reference to FIG. Here, an example in which the frame determination unit 3 performs determination by feature amount analysis will be described. That is, whether or not the frame n is the target cross section is determined based on the degree of coincidence between the feature amount obtained for one or more images prepared in advance for the target cross section X and the feature amount with the frame n. The one or more images prepared in advance may be from the same subject 5 or from different subjects. The feature amount is, for example, an artificially set feature amount such as luminance distribution analysis or edge shape analysis, or an abstract extracted from one or more images of the target cross section X prepared in advance by a machine learning method. Characteristic features are used. A predetermined plurality of feature amounts (for example, luminance distribution, edge shape, abstract feature amount) are analyzed with respect to one or more target cross-sectional images prepared in advance, and a feature amount map is obtained in advance.

目的断面が図6(a)または図6(b)のように、複数ある場合には、それぞれの目的断面X,Y,Zごとに特徴量マップを得ておく。   When there are a plurality of target cross sections as shown in FIG. 6A or FIG. 6B, a feature amount map is obtained for each target cross section X, Y, Z.

フレーム判定部3は、フレームnについて上述の所定の複数の特徴量を分析し、特徴量マップを生成する(図5のステップ501)。つぎに、生成したフレームnの特徴マップを予め用意しておいた目的断面の画像の特徴量マップと照合し、一致率を算出する。一致率の算出には相互相関値を用いる方法などを用いる(ステップ502)。一致率が予め設定した閾値を上回るとき、フレームnは目的断面であると判定し、閾値を下回るときは目的断面ではないと判定する(ステップ403)。複数の目的断面X、Y,Zがある場合には、目的断面X,Y、Zごとに一致率を算出し、フレームnが目的断面X、Y、Zのいずれかであるかどうかを判定する。   The frame determination unit 3 analyzes the plurality of predetermined feature amounts for the frame n and generates a feature amount map (step 501 in FIG. 5). Next, the generated feature map of the frame n is collated with a feature amount map of an image of a target cross section prepared in advance, and a coincidence rate is calculated. A method using a cross-correlation value or the like is used for calculating the coincidence rate (step 502). When the coincidence rate exceeds a preset threshold value, it is determined that the frame n is the target cross section, and when it falls below the threshold value, it is determined that it is not the target cross section (step 403). When there are a plurality of target sections X, Y, and Z, the coincidence rate is calculated for each of the target sections X, Y, and Z, and it is determined whether the frame n is any of the target sections X, Y, and Z. .

フレーム判定部3は、ステップ403においてフレームnが目的断面X,Y,Zのいずれでもないと判定した場合は、ステップ404に進み、メモリ部17からフレームnのチャンネルデータ、受信ラインデータ、シネデータを消去する(ステップ404)。そして、次のn+1番目のフレームについて、ステップ401〜403の判定を繰り返す(ステップ405)。ただし、目的断面の前後の複数フレームを用いて計測を行うことを可能にするために、連続するフレームを一定の期間一時的にメモリ部17に記憶させてもよい。   If the frame determination unit 3 determines in step 403 that the frame n is not one of the target cross-sections X, Y, and Z, the process proceeds to step 404 and the channel data, reception line data, and cine data of frame n are transferred from the memory unit 17. Is deleted (step 404). Then, the determinations in steps 401 to 403 are repeated for the next n + 1th frame (step 405). However, in order to enable measurement using a plurality of frames before and after the target cross section, successive frames may be temporarily stored in the memory unit 17 for a certain period.

フレーム判定部3は、ステップ403においてフレームnが目的断面X,Y,Zのいずかであると判定した場合は、ステップ406に進み、フレームnのメモリ部17からフレームnのチャンネルデータ、受信ラインデータ、シネデータをそのままメモリ部17に保存しておくとともに、第2処理部2の第2処理制御部22に判定結果を出力する。   If it is determined in step 403 that the frame n is one of the target cross sections X, Y, and Z, the frame determination unit 3 proceeds to step 406 and receives the channel n channel data from the memory unit 17 of the frame n, and receives it. The line data and cine data are stored in the memory unit 17 as they are, and the determination result is output to the second processing control unit 22 of the second processing unit 2.

第2処理制御部22は、フレーム判定部3から判定結果を受け取ったならば、判定結果の示す、フレームnが一致する目的断面を判定し、目的断面応じた実行処理内容(プログラム)を制御部16から読み込む(ステップ407)。例えば、目的断面Xが胎児頭部断面である場合、実行処理は児頭大横径(BPD)の計測であり、目的断面Yが胎児腹部断面である場合、実行処理は腹部周囲長(AC)の計測であり、目的断面Zが大腿部断面である場合、実行処理は大腿骨長(FL)の計測である。第2処理制御部22は、フレームnが一致する目的断面X,Y、Zに応じて読み込んだプログラムを実行することにより、計算解析処理部20の各部を動作させて、計測を実行させる(ステップ408〜413)。これにより、第2処理制御部22は、第1処理部1を介して計測結果を表示部6に表示する等する。なお、図4は、図示の都合上、目的断面XおよびYのみについて実行処理を示している。   When the second processing control unit 22 receives the determination result from the frame determination unit 3, the second processing control unit 22 determines the target cross section that matches the frame n indicated by the determination result, and the execution processing content (program) corresponding to the target cross section is determined by the control unit. 16 (step 407). For example, when the target section X is a fetal head section, the execution process is measurement of a large head diameter (BPD), and when the target section Y is a fetal abdominal section, the execution process is an abdominal circumference (AC). When the target section Z is a thigh section, the execution process is measurement of the femur length (FL). The second processing control unit 22 operates each part of the calculation analysis processing unit 20 to execute measurement by executing a program read in accordance with the target cross sections X, Y, and Z with which the frame n matches (step S1). 408-413). Thereby, the second processing control unit 22 displays the measurement result on the display unit 6 via the first processing unit 1. FIG. 4 shows the execution process only for the target cross sections X and Y for the convenience of illustration.

第2処理制御部22は、目的断面に応じた計算解析処理が終了したならば、フレームnについて保存されたデータをメモリ部17から消去する(ステップ410)。ただし、目的断面の前後の複数フレームを用いて計測を行うことを可能にするために、連続するフレームを一定の期間一時的にメモリ部17に記憶させてもよい。   When the calculation analysis process corresponding to the target section is completed, the second processing control unit 22 deletes the data stored for the frame n from the memory unit 17 (step 410). However, in order to enable measurement using a plurality of frames before and after the target cross section, successive frames may be temporarily stored in the memory unit 17 for a certain period.

そして、次のフレームに対して処理を行うため、ステップ401に戻る(ステップ415)。   Then, in order to perform processing for the next frame, the process returns to step 401 (step 415).

このように本実施形態では,第1処理部1と第2処理部2が並行でビームフォーミングや信号処理を行うことができるため、ユーザは常にリアルタイムで表示部6で撮像断面を観察および確認して超音波探触子4の操作を継続することができる。   As described above, in the present embodiment, since the first processing unit 1 and the second processing unit 2 can perform beam forming and signal processing in parallel, the user always observes and confirms the imaging section on the display unit 6 in real time. Thus, the operation of the ultrasonic probe 4 can be continued.

また、フレーム判定部3は,第2処理部2で画像調整や計測等の処理を行う目的断面のフレームであるかどうかを判定するため、ユーザの解剖学的知識やスキルに左右されず、予め定めた目的断面の画像をフレーム判定部3が選択して、計測等を実行することができる。よって、ユーザは、フリーズボタンを操作する必要がなく、胎児健診のように複数の計測項目を計測したい場合にも、短時間で正確に計測を行うことが可能になる。   In addition, since the frame determination unit 3 determines whether the second processing unit 2 is a frame of a target cross section for which processing such as image adjustment and measurement is performed, the frame determination unit 3 does not depend on the anatomical knowledge or skill of the user, and The frame determination unit 3 can select an image of the determined target cross section and perform measurement or the like. Therefore, the user does not need to operate the freeze button, and can measure accurately in a short time even when he / she wants to measure a plurality of measurement items like a fetal medical examination.

また、一般的な超音波診断装置では、20〜60fps程度で撮像が行われるため、そのデータ量は、受信チャンネルデータで最大8GB/s程度のデータ量を有し、撮像中の全ての受信チャンネルデータを保存するためには、メモリ部17に大きなメモリ容量を必要とする。本実施形態では、ステップ404およびステップ410においてフレーム判定部3および第2処理制御部22が目的断面ではないフレームのデータを削除するため、メモリ部17に大きなメモリ容量が不要であり、メモリ容量が小さく、小型な装置の提供が可能になる。   In general ultrasonic diagnostic apparatuses, since imaging is performed at about 20 to 60 fps, the data amount of the reception channel data is a maximum of about 8 GB / s, and all the reception channels being imaged. In order to store data, the memory unit 17 requires a large memory capacity. In the present embodiment, since the frame determination unit 3 and the second processing control unit 22 delete data of a frame that is not the target cross section in Step 404 and Step 410, a large memory capacity is not necessary for the memory unit 17, and the memory capacity is not large. A small and small device can be provided.

なお、第2処理部2の計算解析処理が終了した後,予め設定したメモリ容量の閾値までメモリ部17にデータを保持し,ユーザが計測結果を確認して計測結果が満足するものであった場合には、そのユーザーフィードバックを受けて、第2処理制御部22がメモリ部17の全データを消去してもよい。また、ユーザが計測結果の修正を求めた場合には、保存されたデータを再生することで,第2処理部2の処理する画像を変更したり、画像のゲイン調整や、Mモードやパルスドップラーの計測点など、第2処理部の処理内容について、手動の修正を加えられるようにしてもよい。   In addition, after the calculation analysis processing of the second processing unit 2 was completed, data was held in the memory unit 17 up to a preset memory capacity threshold, and the user confirmed the measurement result and satisfied the measurement result. In some cases, the second process control unit 22 may erase all data in the memory unit 17 in response to the user feedback. When the user requests correction of the measurement result, the image processed by the second processing unit 2 is changed by reproducing the stored data, the gain of the image is adjusted, the M mode or the pulse Doppler. Manual correction may be added to the processing contents of the second processing unit such as the measurement points.

これらの構成によって,連続的に保存するフレーム毎のデータを,処理に必要な時間だけ保存するように管理し,限られたメモリ容量で第2処理部の計算解析処理を実行することができる。   With these configurations, data for each frame that is continuously stored can be managed so as to be stored only for the time required for processing, and the calculation analysis processing of the second processing unit can be executed with a limited memory capacity.

<<第3の実施形態>>
第3の実施形態の超音波撮像装置について、図7〜図10を用いて説明する。図7は、本実施形態の超音波撮像装置におけるバックグラウンド計測の動作を例示する図、図8は、本実施形態の超音波探触子4の種類と撮像対象の部位と検査項目の種類を設定するための設定画面を例示する図、図9は、検査項目に対応する目的断面と計測内容を例示する図、図10は、制御部16の動作の一部を示すフローである。
<< Third Embodiment >>
An ultrasonic imaging apparatus according to the third embodiment will be described with reference to FIGS. FIG. 7 is a diagram illustrating the background measurement operation in the ultrasonic imaging apparatus of the present embodiment, and FIG. 8 shows the types of the ultrasonic probe 4 of the present embodiment, the region to be imaged, and the types of inspection items. FIG. 9 is a diagram illustrating a setting screen for setting, FIG. 9 is a diagram illustrating a target cross section corresponding to an inspection item and measurement contents, and FIG. 10 is a flow illustrating a part of the operation of the control unit 16.

第3の実施形態の超音波撮像装置は、第1および第2の実施形態の超音波診断装置と同様の構成であり、第1処理部1の撮像処理中に,第2処理部2がそれと並行してフレーム判定部3の判定結果に基づいて自動で計測処理を実行する。第3の実施形態では、その際にユーザーインタフェースを通して、ユーザに対して計測処理の実施状況の伝達を行う点が第1及び第2の実施形態とは異なっている。これにより、ユーザによる所定の計測の実行を支援する。   The ultrasonic imaging apparatus of the third embodiment has the same configuration as the ultrasonic diagnostic apparatuses of the first and second embodiments, and the second processing unit 2 and the imaging processing of the first processing unit 1 are the same. In parallel, the measurement process is automatically executed based on the determination result of the frame determination unit 3. The third embodiment is different from the first and second embodiments in that the execution status of the measurement process is transmitted to the user through the user interface at that time. Thereby, execution of predetermined measurement by the user is supported.

ここでいう所定の計測とは、すでに説明したように、例えば胎児エコー診断において胎児の頭部,手足の長さを測定するような形態的な計測や、心エコー診断において心臓の収縮・拡張機能を診断するために心壁の変位を計測するMモードや、超音波のドップラー効果を利用して心臓や血管内の血流速度を計測するドップラー計測などである。これらは,診断に必要な基本観察断面や計測項目・計測位置がガイドライン等に規定されているため、その規定にそってユーザは計測を行う必要がある。   As described above, the predetermined measurement is, for example, a morphological measurement in which fetal echo diagnosis measures the length of the fetus head and limbs, and a cardiac contraction / expansion function in echo echo diagnosis. There are M mode for measuring the displacement of the heart wall in order to diagnose the above, and Doppler measurement for measuring the blood flow velocity in the heart and blood vessels by utilizing the Doppler effect of ultrasonic waves. In these, the basic observation cross section, measurement items, and measurement positions necessary for diagnosis are stipulated in the guidelines and the like, and the user needs to perform measurement according to the stipulations.

一般に超音波検査は、医師や技師であるユーザが超音波探触子4を動かし、リアルタイムに表示部6に表示される断面を観察しながら,診断に必要な観察断面の画像が描出される位置まで超音波探触子4を正確に移動させる。望ましい断面の画像が描出されたら、片手で超音波探触子4の位置を保持したまま、もう一方の手でユーザーインタフェース19のモニターやボタン操作などを行い、画像の調整や保存、計測を行う。この操作を多数回繰り返す。そのためユーザには解剖学的知見や経験といった,高度なスキルが要求され,ユーザのスキルに依存して検査時間が長くかかったり、最適な断面が描出されなかったり、十分な画質調整が行われなかったりと、検査時間や,画像の質,検査精度が左右される。   In general, in the ultrasonic examination, a user who is a doctor or an engineer moves the ultrasonic probe 4 and observes a cross section displayed on the display unit 6 in real time, and a position where an image of an observation cross section necessary for diagnosis is drawn. Until the ultrasonic probe 4 is accurately moved. When an image of a desired cross section is drawn, while maintaining the position of the ultrasound probe 4 with one hand, the user interface 19 is monitored and operated with the other hand, and the image is adjusted, stored, and measured. . This operation is repeated many times. For this reason, users are required to have advanced skills such as anatomical knowledge and experience, and depending on the user's skills, it takes a long time for inspection, the optimal section is not drawn, and sufficient image quality adjustment is not performed. The inspection time, image quality, and inspection accuracy are affected.

第1及び第2の実施形態で述べたように、本実施形態の超音波装置では、図7に示すように、超音波探触子4がユーザによって操作されている間、第1処理部1は、デフォルトモードとしてBモード撮像用の送受信を行う。第1処理部1で生成されたBモード画像が表示部6に表示される。一方、第2処理部2では、第2の実施形態で詳しく述べたように、フレーム判定および計測処理が行われる。   As described in the first and second embodiments, in the ultrasonic apparatus of the present embodiment, as shown in FIG. 7, the first processing unit 1 is operated while the ultrasonic probe 4 is operated by the user. Performs transmission and reception for B-mode imaging as the default mode. The B-mode image generated by the first processing unit 1 is displayed on the display unit 6. On the other hand, in the second processing unit 2, as described in detail in the second embodiment, frame determination and measurement processing are performed.

第3の実施形態では、フレーム判定部3がフレーム判定を行う目的断面および第2処理部2の実行する計測処理の内容は、ユーザが、図2のステップ201の検査開始の前に、図10のフローに示したように、表示部6の表示画面上で、ユーザーインタフェース19を介して、超音波探触子4の種類、撮像対象の部位、検査項目の種類選択することで設定することができる。   In the third embodiment, the target cross-section in which the frame determination unit 3 performs frame determination and the content of the measurement process performed by the second processing unit 2 are shown in FIG. 10 before the user starts the inspection in step 201 in FIG. As shown in the flow, the setting can be made by selecting the type of the ultrasound probe 4, the region to be imaged, and the type of the inspection item via the user interface 19 on the display screen of the display unit 6. it can.

まず、制御部16は、例えば、図8に示すように、超音波探触子4の種類、撮像対象の部位、検査項目の種類を示す画面を表示部6に表示する。図10のように、ユーザが、ユーザーインタフェース19を介してこれらを選択すると制御部16はこれを受け付け(ステップ101)、選択結果に基づき、内蔵するメモリに格納されている診断ワークフローを参照し、目的断面および計測内容を設定する(ステップ102)。例えば、ユーザが、超音波探触子4の種類として、例えば、コンベックス超音波探触子4を選択し、撮像対象として産婦人科を選択し、検査項目として胎児スクリーニング01を選択したならば、ユーザの選択結果に基づき、制御部16は、内蔵するメモリに格納されているテーブルを参照し、図9に示すような目的断面と計測内容を設定する。具体的には、検査項目1にCRL(頭臀長)が設定され、目的断面として胎児矢状断面が設定され、この目的断面に対して実施する計測内容として頭部から臀部直線距離計測が設定される。同様に検査項目2,3についても、図9に示すような目的断面および計測内容が設定される。このようにして目的断面が順に設定され、目的断面が撮像されたフレーム判定部3が判定した時には、第2処理部2により、所定の計測が実行される。   First, for example, as illustrated in FIG. 8, the control unit 16 displays a screen indicating the type of the ultrasound probe 4, the region to be imaged, and the type of the inspection item on the display unit 6. As shown in FIG. 10, when the user selects these via the user interface 19, the control unit 16 accepts this (Step 101), refers to the diagnostic workflow stored in the built-in memory based on the selection result, A target cross section and measurement contents are set (step 102). For example, if the user selects, for example, the convex ultrasound probe 4 as the type of the ultrasound probe 4, selects the obstetrics and gynecology department as the imaging target, and selects the fetal screening 01 as the examination item, Based on the selection result of the user, the control unit 16 refers to a table stored in a built-in memory and sets a target cross section and measurement contents as shown in FIG. Specifically, CRL (head heel length) is set in examination item 1, fetal sagittal section is set as the target section, and hip linear distance measurement from the head is set as the measurement content to be performed on this target section. Is done. Similarly, for the inspection items 2 and 3, a target cross section and measurement contents as shown in FIG. 9 are set. In this manner, the target sections are set in order, and when the frame determination unit 3 that has captured the target section determines, predetermined measurement is executed by the second processing unit 2.

また、第3の実施形態では、第2処理部2の第2処理制御部22は、図7に示したように、計測処理の実施状況に関するアラートをユーザに対して知らせるアラート機能を有する。具体的には、ステップ411の児頭大横径(BPD)計測処理の開始時に「BPD計測を実施中です。」とユーザに報知する表示を表示部6に表示させたり、不図示のスピーカーから音声出力させたりする。また、ステップ413の児頭大横径(BPD)計測処理の終了時には、「BPD計測が終了しました。次はAC断面へ超音波探触子4を操作してください。」などを表示や音声出力する。これにより、ユーザに計測状況を伝えることができる。   In the third embodiment, as shown in FIG. 7, the second processing control unit 22 of the second processing unit 2 has an alert function that informs the user of an alert regarding the implementation status of the measurement process. Specifically, a display notifying the user that “BPD measurement is in progress” is displayed on the display unit 6 at the start of the large head diameter (BPD) measurement process in step 411, or from a speaker (not shown). Output audio. In addition, when the large head diameter (BPD) measurement process in step 413 is completed, a message such as “BPD measurement has been completed. Next, operate the ultrasound probe 4 to the AC cross section.” Is displayed and voiced. Output. Thereby, a measurement condition can be communicated to the user.

さらに、第2処理制御部22は、制御部16に設定された一連の計測が終了した場合には、「全ての計測が終了しました。超音波探触子の操作を終了してください。」などと表示し,撮像・計測結果のレポートを出力することもできる。   Further, when the series of measurements set in the control unit 16 is completed, the second processing control unit 22 “all measurements have been completed. Please terminate the operation of the ultrasound probe.” Etc., and a report of imaging / measurement results can be output.

また、フレーム判定部3において、目的断面が一定時間以上描出されない場合には,第2処理制御部22は、「頸動脈の長軸断面が描出されません」などと、描出不良を伝えるアラートを表示部6に表示して,ユーザに対して超音波探触子4の操作に関する示唆を与えることも可能である。   In addition, when the target cross section is not drawn for a certain time or longer in the frame determination unit 3, the second processing control unit 22 sends an alert notifying the drawing failure such as “the long-axis cross section of the carotid artery is not drawn”. It is also possible to give suggestions regarding the operation of the ultrasound probe 4 to the user by displaying on the display unit 6.

さらに、制御部16に設定された計測内容が,一定時間超音波探触子4を停止したまま保持したり、被検体5に一時的に息止めを指示したりする必要がある計測の場合には,第2処理制御部22は、ステップ408や411において不図示のスピーカーから停止音を発生させるなどの方法で、ユーザにすばやく指示を与えるためのアラートを出すことも可能である。また、第2処理制御部22ではなく、フレーム判定部3が直接これらの指示をスピーカー等から出力させる構成にしてもよい。   Furthermore, when the measurement content set in the control unit 16 is a measurement that needs to hold the ultrasonic probe 4 while stopping for a certain period of time or to instruct the subject 5 to hold the breath temporarily. The second processing control unit 22 can also issue an alert for quickly giving an instruction to the user by a method such as generating a stop sound from a speaker (not shown) in steps 408 and 411. Further, instead of the second processing control unit 22, the frame determination unit 3 may directly output these instructions from a speaker or the like.

また第2処理部2で計測を開始するときに,第2の実施形態で述べたように、メモリ部17に保存された該当フレームの保存データを使う構成の他に、予め設定しておいた送受信条件(例えば、送信強度、送信波形、送信スキャンのシーケンス、および受信部のフィルタ設定など)を、第2処理部2の第2処理制御部22が、第1処理部1の制御部16へ設定し、チャンネルデータ,ラインデータ,シネデータのうち1つ以上について再取得させてもよい。   Further, when the measurement is started in the second processing unit 2, as described in the second embodiment, in addition to the configuration using the stored data of the corresponding frame stored in the memory unit 17, it is set in advance. The transmission / reception conditions (for example, transmission intensity, transmission waveform, transmission scan sequence, and filter setting of the reception unit) are transferred from the second processing control unit 22 of the second processing unit 2 to the control unit 16 of the first processing unit 1. It is possible to set and re-acquire one or more of channel data, line data, and cine data.

これらの実施形態によって、ユーザー(医師や技師)は、ガイドラインに定められた操作手順で超音波探触子4を順に動かすのみで、その間に基本断面の取得、検査に必要な計測の全てを、ユーザーインタフェース19のボタン操作等の負担なくバックグラウンドで行うことができ、短時間での検査が可能になる。   According to these embodiments, the user (doctor or engineer) simply moves the ultrasonic probe 4 in order according to the operation procedure defined in the guideline, and during that time, the acquisition of the basic cross section and all the measurements necessary for the inspection are performed. It can be performed in the background without burdens such as button operation of the user interface 19, and inspection in a short time becomes possible.

またフレーム判定部が目的断面を判定し、かつ目的断面が得られない場合にユーザにアラートを出すことによって、ユーザに依存せずに検査に適したアングルでの計測を行うことが可能になる。   In addition, when the frame determination unit determines the target cross section and the target cross section is not obtained, an alert is issued to the user, whereby measurement at an angle suitable for the inspection can be performed without depending on the user.

<<第4の実施形態>>
第4の実施形態の超音波撮像装置について、図11〜図15を用いて説明する。図11は、本実施形態の超音波撮像装置における撮像パラメータの最適化を行う動作を説明する図である。
<< Fourth Embodiment >>
An ultrasonic imaging apparatus according to the fourth embodiment will be described with reference to FIGS. FIG. 11 is a diagram for explaining the operation for optimizing the imaging parameters in the ultrasonic imaging apparatus of the present embodiment.

第4の実施形態の超音波撮像装置は、第1および第2の実施形態の超音波診断装置と同様の構成であるが、図11に示すように、フレーム判定部3が目的断面のフレームを判定した場合には、第2処理部2の計算解析処理として、撮像パラメータの最適化解析を行い,求めた最適パラメータを第1処理部1へフィードバックする。   The ultrasonic imaging apparatus of the fourth embodiment has the same configuration as the ultrasonic diagnostic apparatuses of the first and second embodiments. However, as shown in FIG. When the determination is made, as a calculation analysis process of the second processing unit 2, an optimization analysis of imaging parameters is performed, and the obtained optimal parameter is fed back to the first processing unit 1.

一般に超音波撮像では撮像条件や撮像対象の動きの有無等により、コントラストの低下、分解能の低下、フレームレートの低下や虚像の発生などの画像劣化が生じるため、撮像対象の部位の特性(構造・組織特性・動き)や撮像目的(診断項目、計測項目)に応じて、撮像条件を調整することが望ましい。しかしながら、調整が必要な撮像パラメータ(送受信条件)は、送信の複数のプロセスおよび受信の複数のプロセスごとにそれぞれ複数があるため、ユーザが良好な画像を得るための適切なパラメータ値を設定することは容易ではない。   In general, in ultrasonic imaging, image degradation such as a decrease in contrast, a decrease in resolution, a decrease in frame rate, and the generation of virtual images occurs due to the imaging conditions and the presence or absence of movement of the imaging target. It is desirable to adjust the imaging conditions according to the tissue characteristics / movement) and the imaging purpose (diagnostic item, measurement item). However, since there are multiple imaging parameters (transmission / reception conditions) that need to be adjusted for each of a plurality of transmission processes and a plurality of reception processes, the user must set appropriate parameter values for obtaining a good image. Is not easy.

具体的には、ユーザが設定可能な撮像パラメータには、例えば、送信ビームのフォーカス深度、送受信のスキャンライン密度、DAS(遅延加算)撮像/開口合成などの撮像モードの選択、撮像範囲(画角)、ダイナミックゲインなどがある。またユーザが直接設定可能なパラメータやモードの他に、装置内部に予め設定される撮像パラメータが多数ある。例えば、受信部12ではサンプリング周波数やバンドパス周波数を決めるフィルタ係数、チャンネルアポダイゼーションの重み値、受信ビームフォーマーでは遅延値の算出に用いる音速値、開口合成撮像における受信ライン数、LRIの合成数、LRIに付与する重み値などがある。これらのパラメータの中には、複数の処理プロセスにおいて設定されるものもあり、ある処理プロセスにおいて変化させた場合と、別の処理プロセスで変化させた場合とで画質は異なる。このため、適切なパラメータ値を適切な処理プロセスにおいて設定するのは容易ではない。   Specifically, the imaging parameters that can be set by the user include, for example, the transmission beam focus depth, transmission / reception scan line density, imaging mode selection such as DAS (delayed addition) imaging / aperture synthesis, imaging range (angle of view) ) And dynamic gain. In addition to parameters and modes that can be directly set by the user, there are many imaging parameters that are preset in the apparatus. For example, the receiving unit 12 has a filter coefficient for determining a sampling frequency and a band pass frequency, a channel apodization weight value, a reception beamformer has a sound velocity value used for calculating a delay value, the number of received lines in aperture synthetic imaging, the number of LRI composites, There are weight values assigned to LRI. Some of these parameters are set in a plurality of processing processes, and the image quality is different between a case where the parameter is changed in a certain processing process and a case where the parameter is changed in another processing process. For this reason, it is not easy to set an appropriate parameter value in an appropriate processing process.

本実施形態では、制御部16は、第1の実施形態と同様に、最初に、初期設定パラメータによって第1処理部1において撮像を実施させる(図2のステップ201)。
そしてフレーム判定部3において、目的断面のフレームであると判定がされた場合(ステップ202)、第2処理部2の第2処理制御部22は、撮像されたフレームの画質を向上させる最適なパラメータを算出するための計算解析処理を計算解析処理部20に実行させ、最適なパラメータ値を算出する。第2処理制御部22は、算出した最適パラメータを第1処理部1の制御部16にフィードバックする(ステップ203)。これにより、第1処理部1は、初期設定値を用いた撮像から、最適パラメータを用いた撮像に切り替わり、表示部6には初期の画像よりも画質が改善されたBモード画像が表示される。
In the present embodiment, as in the first embodiment, the control unit 16 first causes the first processing unit 1 to perform imaging using the initial setting parameters (step 201 in FIG. 2).
When the frame determination unit 3 determines that the frame is the target cross section (step 202), the second processing control unit 22 of the second processing unit 2 sets the optimum parameter for improving the image quality of the captured frame. The calculation analysis processing unit 20 is caused to execute a calculation analysis process for calculating the optimal parameter value. The second processing control unit 22 feeds back the calculated optimum parameter to the control unit 16 of the first processing unit 1 (step 203). As a result, the first processing unit 1 switches from imaging using the initial setting value to imaging using the optimal parameter, and the display unit 6 displays a B-mode image with improved image quality compared to the initial image. .

このように、目的断面として基本断面を設定しておき、基本断面のフレームがフレーム判定部3によって判定された場合に、最適な撮像パラメータが、第2処理部2により算出される構成にすることにより、基本断面が表示部6に表示されている間に、最適パラメータがフィードバック設定され、画質を改善したBモード画像を表示することができる。   As described above, the basic cross section is set as the target cross section, and when the frame of the basic cross section is determined by the frame determination unit 3, the optimum imaging parameter is calculated by the second processing unit 2. Thus, while the basic cross section is displayed on the display unit 6, the optimum parameter is feedback-set, and a B-mode image with improved image quality can be displayed.

または、超音波探触子4がユーザによって操作され、撮像断面が一定距離以上変化した場合には、最適な撮像パラメータを第2処理部2が算出して第1処理部1に設定する構成とすることも可能である。この場合、フレーム判定部3が判定した撮像断面の位置が、所定の断面から一定距離以上変化したと判定されるたびに、第2処理部2でパラメータ最適化が実行されるように構成する。撮像断面の移動量は、例えばフレーム間で画像の相互相関を算出する処理を行い、相互相関値のピーク値の位置から移動量を算出する方法によって検出することができる。   Alternatively, when the ultrasonic probe 4 is operated by the user and the imaging cross section changes by a certain distance or more, the second processing unit 2 calculates and sets the optimal imaging parameter in the first processing unit 1. It is also possible to do. In this case, the second processing unit 2 is configured to perform parameter optimization every time it is determined that the position of the imaging cross section determined by the frame determination unit 3 has changed by a certain distance or more from a predetermined cross section. The amount of movement of the imaging cross section can be detected by, for example, performing a process of calculating the cross-correlation of images between frames and calculating the amount of movement from the position of the peak value of the cross-correlation value.

第2処理部2のパラメータ最適化処理は、第1処理部1のBモード撮像と平行して行われるため、パラメータ最適化に要する時間が複数フレームの撮像に跨る場合でも、表示部6によるリアルタイムな画像表示を中断することがない。   Since the parameter optimization processing of the second processing unit 2 is performed in parallel with the B-mode imaging of the first processing unit 1, even when the time required for parameter optimization spans imaging of a plurality of frames, real time by the display unit 6 The image display is not interrupted.

第2処理部2が行うパラメータ最適化の処理の具体例について図12および図13を用いて説明する。図12は、第2処理部2が生成するテーブルである。このテーブルは、複数の撮像プロセスにおいて撮像パラメータを変化させた場合の画像の画質させる評価指標(画質改善評価指標)を示している。図13は、第2処理部2のパラメータ最適化処理の動作を示すフローチャートである。   A specific example of the parameter optimization process performed by the second processing unit 2 will be described with reference to FIGS. 12 and 13. FIG. 12 is a table generated by the second processing unit 2. This table shows an evaluation index (image quality improvement evaluation index) for image quality when the imaging parameters are changed in a plurality of imaging processes. FIG. 13 is a flowchart showing the operation of the parameter optimization process of the second processing unit 2.

まず、第2処理部2は、最適な撮像パラメータを求めるため、第1処理部1の予め定めた複数のプロセスA,B,C・・(例:送信ビームフォーマー11の送信ビームフォーミング(送信信号生成)プロセス、受信ビームフォーマー13の受信ビームフォーミングプロセス、信号処理部14の信号処理プロセス等)と、各プロセスで用いるパラメータα,β,γ・・(フォーカス深度、スキャンライン密度、DAS(遅延加算)撮像/開口合成などの撮像モードの選択等)の組合せについて、パラメータ値を変化させた場合の画質改善評価指標をそれぞれ算出する(ステップ131、132)。これにより、画質改善評価指標を示すテーブルを、図12のように生成する(ステップ133)。図12のテーブルを参照することにより、とくに画質改善効果の高いパラメータを、第1処理部1へフィードバックする(ステップ134〜137)。以下、詳しく説明する。   First, the second processing unit 2 determines a plurality of predetermined processes A, B, C,... (For example, transmission beam forming (transmission of the transmission beam former 11) of the first processing unit 1 in order to obtain an optimum imaging parameter. Signal generation process, reception beam forming process of the reception beam former 13, signal processing process of the signal processing unit 14, and parameters α, β, γ... Used in each process (focus depth, scan line density, DAS ( For the combination of delay addition and imaging mode selection such as imaging / aperture synthesis, the image quality improvement evaluation index when the parameter value is changed is calculated (steps 131 and 132). Thereby, a table showing the image quality improvement evaluation index is generated as shown in FIG. 12 (step 133). By referring to the table of FIG. 12, parameters that have a particularly high image quality improvement effect are fed back to the first processing unit 1 (steps 134 to 137). This will be described in detail below.

まず、ステップ131において、第2処理部2は、各プロセスにおけるパラメータの画質改善評価指標を求めるために、メモリ部17に保存されたチャンネルデータまたは受信ラインデータまたはシネデータを読み込み、パラメータ値を予め定めた範囲で変化させて、信号解析処理部20の受信ビームフォーマー23および信号処理部24によってBモード画像の画像生成を行う。そして、ステップ132において、解析部26によって、得られた画像の画質を評価することにより、そのパラメータの画質改善評価指標を算出する。   First, in step 131, the second processing unit 2 reads channel data, reception line data, or cine data stored in the memory unit 17 in order to obtain an image quality improvement evaluation index of parameters in each process, and sets parameter values in advance. The B-mode image is generated by the reception beamformer 23 and the signal processing unit 24 of the signal analysis processing unit 20 while changing within a predetermined range. In step 132, the analysis unit 26 evaluates the image quality of the obtained image, thereby calculating an image quality improvement evaluation index for the parameter.

なお、第2処理部2は、送信ビームフォーミングを行うプロセスや、受信チャンネルデータの生成以前の処理プロセスにおけるパラメータの画質改善効果を求める際には、第1処理部の制御部16に各プロセスのパラメータ値を指示し、制御部16を介して、第1処理部1から送受信を行わせる。これにより、第2処理部2は、チャンネルデータ、受信ラインデータ、シネデータのうち1つ以上のデータを第1処理部1によって再取得させる。そして、第2処理部2は、再取得したデータを、信号解析処理部20の受信ビームフォーマー23および信号処理部24によってBモード画像の画像生成を行う(ステップ131)。さらに、解析部26によって、得られた画像の画質を評価することにより、そのパラメータの画質改善評価指標を算出する(ステップ132)。   When the second processing unit 2 obtains the effect of improving the image quality of the parameters in the process of performing the transmission beam forming or the processing process before the generation of the reception channel data, the second processing unit 2 sends the control unit 16 of the first processing unit to each process. A parameter value is instructed, and transmission / reception is performed from the first processing unit 1 via the control unit 16. Thereby, the second processing unit 2 causes the first processing unit 1 to re-acquire one or more data among the channel data, the reception line data, and the cine data. Then, the second processing unit 2 generates a B-mode image of the re-acquired data using the reception beam former 23 and the signal processing unit 24 of the signal analysis processing unit 20 (step 131). Further, the image quality improvement evaluation index of the parameter is calculated by evaluating the image quality of the obtained image by the analysis unit 26 (step 132).

なお、画質改善評価指標として、第2処理部2の解析部26は、ここでは画質改善寄与率とフレームレート保持判定の2つを算出する。   Note that, as the image quality improvement evaluation index, the analysis unit 26 of the second processing unit 2 calculates two of the image quality improvement contribution rate and the frame rate holding determination here.

画質改善寄与率とは、該当フレームの初期画像と、例えば処理プロセスAのパラメータαを初期値α0からα1に変化させたときの画像とを比較した場合の画像の改善の度合いを意味する。一方、フレームレート保持判定とは、処理プロセスAのパラメータαを初期値α0からα1に変化させた後の、第1処理部1における送受信に要する時間を求め、初期のフレームレートと同じフレームレートが保持されるか、フレームレートが低下するかを判定することである。画質改善寄与率の算出方法と、フレームレート保持の判定方法については、後で詳しく説明する。 The image quality improvement contribution rate means the degree of image improvement when comparing the initial image of the corresponding frame with, for example, the image when the parameter α of the processing process A is changed from the initial value α 0 to α 1. . On the other hand, in the frame rate holding determination, the time required for transmission / reception in the first processing unit 1 after changing the parameter α of the processing process A from the initial value α 0 to α 1 is obtained, and the same frame as the initial frame rate is obtained. It is to determine whether the rate is maintained or the frame rate is lowered. The calculation method of the image quality improvement contribution rate and the determination method of the frame rate retention will be described in detail later.

第2処理部2は、上述のように各パラメータを変化させ、画質改善寄与率とフレームレート保持判定を画質改善評価指標として求め、図12のテーブルを生成する(ステップ133)。   The second processing unit 2 changes each parameter as described above, obtains the image quality improvement contribution rate and the frame rate holding determination as the image quality improvement evaluation index, and generates the table of FIG. 12 (step 133).

つぎに、第2処理部2は、ユーザがフレームレート優先モードの設定をユーザーインタフェース19を介して設定しているかどうかを読み込み、ユーザがフレームレート優先モードを設定しているかどうかを判定する(ステップ134)。フレームレート優先モードが設定されている場合、ステップ135へ進み、図12のテーブルの中から、フレームレート保持判定結果が「フレームレート保持可能」である処理プロセスとパラメータの組み合わせを選択し、さらにその中で画質改善寄与率が高い組み合わせ(図12の処理プロセスBのパラメータγ)を選択する。一方、フレームレート優先モードがオフ(フレームレートよりも画質を優先)の場合には、ステップ136へ進み、最も画質改善寄与率が高い処理プロセスとパラメータの組み合わせ(図12の処理プロセスAのパラメータα)を選択する。   Next, the second processing unit 2 reads whether or not the user has set the frame rate priority mode via the user interface 19, and determines whether or not the user has set the frame rate priority mode (step S1). 134). When the frame rate priority mode is set, the process proceeds to step 135, and a combination of a process and a parameter whose frame rate holding determination result is “frame rate holding possible” is selected from the table of FIG. Among them, a combination having a high image quality improvement contribution rate (parameter γ of the processing process B in FIG. 12) is selected. On the other hand, when the frame rate priority mode is off (the image quality is prioritized over the frame rate), the process proceeds to step 136 and the combination of the processing process and the parameter having the highest image quality improvement contribution rate (the parameter α of the processing process A in FIG. 12). ) Is selected.

そして、第2処理部2は、選択した処理プロセスとパラメータの値(ステップ131のパラメータ値)を、第1処理部1の制御部16に出力し、撮像に適用するように指示する(ステップ137)。これにより、第1処理部1は、設定されたパラメータ値を処理プロセスに適用し、撮像を行う。   Then, the second processing unit 2 outputs the selected processing process and the parameter value (the parameter value of step 131) to the control unit 16 of the first processing unit 1 and instructs it to be applied to imaging (step 137). ). Thereby, the first processing unit 1 performs imaging by applying the set parameter value to the processing process.

なお、上述のフレームレート優先モードは、上述したようにユーザが任意に設定できる構成であってもよいし、フレーム判定部3で判定したフレームの目的断面の部位や臓器に応じて、第2処理部2の第2処理制御部22が、フレームレート優先モードを設定する構成にしてもよい。例えば、目的断面が含まれる対象臓器が、心臓である場合には、高いフレームレートが望ましいために、第2処理部2の第2処理制御部22は、フレームレート優先モードをオンにし、対象臓器が肝臓である場合には必ずしも高いフレームレートが必要ないためフレームレート優先モードをオフにする。   The frame rate priority mode described above may be configured to be arbitrarily set by the user as described above, or the second process depending on the region or organ of the target cross section of the frame determined by the frame determination unit 3. The second processing control unit 22 of the unit 2 may set the frame rate priority mode. For example, when the target organ including the target cross section is the heart, a high frame rate is desirable. Therefore, the second processing control unit 22 of the second processing unit 2 turns on the frame rate priority mode and sets the target organ. When is a liver, the frame rate priority mode is turned off because a high frame rate is not necessarily required.

このように、本実施形態では、画質改善寄与率とフレームレート保持判定の2つの評価指標を用いることにより、必要なフレームレートの確保と、画質の向上とを両立することが可能になる。   As described above, in this embodiment, by using the two evaluation indexes of the image quality improvement contribution rate and the frame rate holding determination, it is possible to achieve both the necessary frame rate and the improvement of the image quality.

ここで、画質改善寄与率やフレームレートの算出方法について、具体的に説明する。これらの算出は、第2処理部2の解析部26が行う。まず、画質改善寄与率の算出方法の具体例を、図14、図15を用いて説明する。図14は、画像の評価部位を説明する図であり、図15は、画質改善寄与率の算出動作を示すフローチャートである。   Here, the calculation method of the image quality improvement contribution rate and the frame rate will be specifically described. These calculations are performed by the analysis unit 26 of the second processing unit 2. First, a specific example of a method for calculating the image quality improvement contribution rate will be described with reference to FIGS. FIG. 14 is a diagram for explaining an evaluation part of an image, and FIG. 15 is a flowchart showing an operation for calculating an image quality improvement contribution rate.

本実施形態では、画像のコントラストおよび分解能等の複数の画像の評価指標のうち、一つ以上を用いて画質改善寄与率を算出する。   In the present embodiment, the image quality improvement contribution rate is calculated using one or more of a plurality of image evaluation indexes such as image contrast and resolution.

解析部26は、図14に示すように、目的断面のフレーム(初期画像)と、ステップ131で撮像パラメータ値を変化させて生成した画像に対して、画像評価部位を設定する(ステップ151)。例えばコントラスト判定部位としては、画像中の比較的高輝度な部位(より白く表示される部位)と比較的低輝度な部位(より黒く表示される部位)の2つを抽出して設定する。また分解能(シャープネス)の評価部位として、比較的高輝度で微細な構造が描出されている部位を抽出して設定する。例えば、微細な血管の断面や壁構造、石灰部などが好適である。   As shown in FIG. 14, the analysis unit 26 sets an image evaluation part for the frame (initial image) of the target section and the image generated by changing the imaging parameter value in step 131 (step 151). For example, as contrast determination parts, two parts, a relatively high-luminance part (a part displayed in white) and a comparatively low-luminance part (a part displayed in black) in the image, are extracted and set. Further, as a resolution (sharpness) evaluation part, a part where a relatively high-luminance and fine structure is depicted is extracted and set. For example, a fine blood vessel cross section, a wall structure, a lime portion, and the like are suitable.

つぎに、解析部26は、一対のコントラスト判定部位のそれぞれの輝度の平均値(単位デシベル(dB))の差分をコントラストの指標として算出する。また、解析部26は、抽出した分解能評価部位(構造)を横切る輝度プロファイルを求め、輝度プロファイルにおける輝度値ピークを示す位置から、一定輝度値だけ輝度値が低下する位置までの距離(構造体の幅)を求め、これを分解能の指標とする(ステップ152)。本実施形態では、初期の画質に対する相対的な改善度合いが算出できればよいため、このような方法で算出した構造体の幅を、分解能(シャープネス)として定義する。   Next, the analysis unit 26 calculates the difference between the average values (unit decibels (dB)) of the brightness of each of the pair of contrast determination portions as a contrast index. In addition, the analysis unit 26 obtains a luminance profile that crosses the extracted resolution evaluation site (structure), and the distance from the position indicating the luminance value peak in the luminance profile to the position where the luminance value decreases by a certain luminance value (the structure body). (Width) is obtained and used as an index of resolution (step 152). In the present embodiment, since it is only necessary to calculate the relative improvement degree with respect to the initial image quality, the width of the structure calculated by such a method is defined as resolution (sharpness).

解析部26は、初期画像に対する撮像パラメータ変化後の画像のコントラストまたは分解能の比を画質改善寄与率して算出する(ステップ153)。   The analysis unit 26 calculates the ratio of the contrast or resolution of the image after the imaging parameter change with respect to the initial image as the image quality improvement contribution rate (step 153).

次に、解析部26によるフレームレートの算出方法について説明する。   Next, a frame rate calculation method by the analysis unit 26 will be described.

超音波のフレームレートは一般に、超音波が生体中を往復するのに要する伝搬時間と、受信ビームフォーマーや信号処理部などの処理プロセスにおける処理時間との2つが律速となる。   In general, the frame rate of an ultrasonic wave is controlled by two of the propagation time required for the ultrasonic wave to reciprocate in the living body and the processing time in a processing process such as a reception beam former or a signal processing unit.

超音波の伝搬時間は、式(1)のように、1フレームに必要なビーム送信回数(N)、最大撮像深度(d)、生体の音速(c)から求められる。   The propagation time of the ultrasonic wave is obtained from the number of beam transmissions required for one frame (N), the maximum imaging depth (d), and the sound speed (c) of the living body as shown in Equation (1).

τ=N×2d/c ・・・(1)
ただし、τ:1フレームに要する伝搬時間、N:1フレームのビーム送信回数、d:最大撮像深度、c:生体の音速である。
τ = N × 2d / c (1)
Where τ: propagation time required for one frame, N: number of beam transmissions of one frame, d: maximum imaging depth, and c: sound speed of a living body.

上記処理時間は、パラメータ値ごとの比例定数を予め計測したり、演算量から計算したりする方法で、算出することが可能である。例えば一般に受信ビームフォーマー13の処理時間は、受信ライン数に比例し、その比例定数は、第1処理部1の演算性能(処理クロック数やパラレル処理数、データ転送速度)などによって決まる。   The processing time can be calculated by a method in which a proportional constant for each parameter value is measured in advance or calculated from the amount of calculation. For example, in general, the processing time of the reception beam former 13 is proportional to the number of reception lines, and the proportionality constant is determined by the arithmetic performance of the first processing unit 1 (number of processing clocks, number of parallel processes, data transfer speed) and the like.

よって、解析部26は、式(1)により、撮像パラメータ変化後の伝搬時間を算出するとともに、撮像パラメータ変化後の処理時間を撮像パラメータごとに予め求めておいた比例定数を用いて算出することにより、フレームレートが維持できるかどうか判定することができる。   Therefore, the analysis unit 26 calculates the propagation time after the change of the imaging parameter according to the equation (1), and calculates the processing time after the change of the imaging parameter using a proportional constant obtained in advance for each imaging parameter. Thus, it can be determined whether or not the frame rate can be maintained.

上述してきた第4の実施形態では、第1処理部1の撮像処理中に,第2処理部2がそれと並行して撮像パラメータの最適化解析を行い,最適パラメータを第1処理部1へフィードバックすることができる。よって、ユーザがボタン操作などによって画像調整をすることなく、撮像対象ごとに最適なパラメータによって改善した画像を表示し、かつ、必要なフレームレートを担保することが可能になる。   In the fourth embodiment described above, during the imaging process of the first processing unit 1, the second processing unit 2 performs optimization analysis of imaging parameters in parallel with it and feeds back the optimal parameters to the first processing unit 1. can do. Therefore, it is possible to display an image improved by an optimum parameter for each imaging target and to secure a necessary frame rate without adjusting the image by a button operation or the like by the user.

上述の第1から第4の実施形態では、第1処理部1とメモリ部17とフレーム判定部3と第2処理部2とにより一つの超音波撮像装置を構成する例について説明したが、第1処理部1として既存の超音波撮像装置を用い、フレーム判定部3および第2処理部2から構成される超音波画像処理システムを既存の超音波撮像装置に接続する構成としてもよい。この場合、メモリ部17は、既存の超音波撮像装置に内蔵されているメモリを用いてもよいし、超音波画像処理システム内にメモリ部17を配置してよい。また、超音波画像処理システムと既存の超音波撮像装置とをネットワークを介して接続してもよい。   In the first to fourth embodiments described above, the example in which one ultrasonic imaging apparatus is configured by the first processing unit 1, the memory unit 17, the frame determination unit 3, and the second processing unit 2 has been described. An existing ultrasonic imaging device may be used as the one processing unit 1 and an ultrasonic image processing system including the frame determination unit 3 and the second processing unit 2 may be connected to the existing ultrasonic imaging device. In this case, the memory unit 17 may use a memory built in an existing ultrasonic imaging apparatus, or the memory unit 17 may be arranged in the ultrasonic image processing system. Further, the ultrasonic image processing system and the existing ultrasonic imaging apparatus may be connected via a network.

1…第1処理部、2…第2処理部、3…フレーム判定部、4…超音波探触子、5…被検体、11…送信ビームフォーマー、12…受信部、13…受信ビームフォーマー、14…信号処理部、15…バックエンド部、16…制御部、17…メモリ部、18…送受切替部、19…ユーザーインタフェース、20…計算解析処理部、22…第2処理制御部、23…受信ビームフォーマー、24…信号処理部、25…バックエンド処理部、26…解析部。

DESCRIPTION OF SYMBOLS 1 ... 1st process part, 2 ... 2nd process part, 3 ... Frame determination part, 4 ... Ultrasonic probe, 5 ... Subject, 11 ... Transmission beam former, 12 ... Reception part, 13 ... Reception beam for 14 ... signal processing unit, 15 ... back end unit, 16 ... control unit, 17 ... memory unit, 18 ... transmission / reception switching unit, 19 ... user interface, 20 ... calculation analysis processing unit, 22 ... second processing control unit, 23: Receive beamformer, 24: Signal processing unit, 25: Back-end processing unit, 26: Analysis unit.

Claims (11)

被検体からの超音波を受信した超音波探触子が出力する受信信号を受け取って、前記被検体の断面の画像を時系列に生成する第1処理部と、
前記第1処理部が生成した前記画像が、前記被検体の予め定められた目的断面の画像かどうかを判定するフレーム判定部と、
前記フレーム判定部が、前記第1処理部の生成した画像が前記目的断面の画像であると判定した場合、その画像およびその画像が生成された元の前記受信信号の少なくとも一方に対して、所定の処理を行う第2処理部とを有することを特徴とする超音波撮像装置。
A first processing unit that receives a reception signal output by an ultrasonic probe that has received ultrasonic waves from a subject, and generates a cross-sectional image of the subject in time series;
A frame determination unit for determining whether the image generated by the first processing unit is an image of a predetermined target cross section of the subject;
When the frame determination unit determines that the image generated by the first processing unit is an image of the target cross section, a predetermined value is applied to at least one of the image and the original reception signal from which the image is generated. An ultrasonic imaging apparatus, comprising: a second processing unit that performs the above process.
請求項1に記載の超音波撮像装置であって、前記第2処理部は、前記目的断面の画像を処理して、前記目的断面における前記被検体の所定の部位の形状の計測を行うことを特徴とする超音波撮像装置。   2. The ultrasonic imaging apparatus according to claim 1, wherein the second processing unit processes an image of the target cross section and measures a shape of a predetermined part of the subject on the target cross section. A characteristic ultrasonic imaging apparatus. 請求項1に記載の超音波撮像装置であって、前記第2処理部は、前記目的断面の画像を処理して、前記目的断面の画像の画質を向上させる撮像条件を求めることを特徴とする超音波撮像装置。   2. The ultrasonic imaging apparatus according to claim 1, wherein the second processing unit processes the image of the target cross section to obtain an imaging condition for improving an image quality of the image of the target cross section. Ultrasonic imaging device. 請求項1に記載の超音波撮像装置であって、前記フレーム判定部は、前記第1処理部が生成した前記画像の特徴量を抽出し、前記目的断面についての1以上の画像について予め求めておいた特徴量と比較することにより、前記第1処理部が生成した前記画像が前記目的断面の画像かどうかを判定することを特徴とする超音波撮像装置。   The ultrasonic imaging apparatus according to claim 1, wherein the frame determination unit extracts a feature amount of the image generated by the first processing unit, and obtains in advance one or more images of the target cross section. An ultrasonic imaging apparatus that determines whether the image generated by the first processing unit is an image of the target cross section by comparing with a feature amount that has been placed. 請求項1に記載の超音波撮像装置であって、前記第1処理部が時系列に生成した画像を保存するメモリをさらに有し、前記フレーム判定部は、前記第1処理部が生成した画像が前記目的断面の画像ではない場合は、前記画像を前記メモリから消去することを特徴とする超音波撮像装置。   The ultrasonic imaging apparatus according to claim 1, further comprising a memory that stores images generated in time series by the first processing unit, wherein the frame determination unit is an image generated by the first processing unit. If the image is not an image of the target section, the image is erased from the memory. 請求項1に記載の超音波撮像装置であって、前記第1処理部は、ユーザが前記被検体上で移動させている前記超音波探触子の現在の位置の前記被検体の断面の画像を生成し、
前記フレーム判定部には、複数の前記目的断面が予め設定され、
前記第1処理部の生成した画像が前記目的断面のうちの一つの断面の画像であると前記フレーム判定部が判定した場合、前記第2処理部は、他の前記目的断面へ前記超音波探触子を移動させるようにユーザに促す表示または音声の出力を、接続されている表示部または音声出力部に実行させることを特徴とする超音波撮像装置。
2. The ultrasonic imaging apparatus according to claim 1, wherein the first processing unit is an image of a cross section of the subject at a current position of the ultrasonic probe that is moved by the user on the subject. Produces
The frame determination unit is preset with a plurality of the target cross sections,
When the frame determination unit determines that the image generated by the first processing unit is an image of one of the target cross sections, the second processing unit moves the ultrasonic search to another target cross section. An ultrasonic imaging apparatus that causes a display or audio output unit connected to execute display or audio output that prompts a user to move a touch element.
請求項1に記載の超音波撮像装置であって、前記第1処理部は、ユーザが前記被検体上で移動させている前記超音波探触子の現在の位置の前記被検体の断面の画像を生成して接続されている表示部にリアルタイムで表示させ、
前記フレーム判定部には、複数の前記目的断面が予め設定され、
前記第1処理部の生成した画像が前記目的断面のうちの一つの断面の画像であると前記フレーム判定部が判定した場合、前記第2処理部は、判定した目的断面の画像について所定の計測処理を実行し、その間、前記第1処理部は、ユーザが前記被検体上で移動させている前記超音波探触子の現在の位置の前記被検体の断面の画像を生成し、前記表示部にリアルタイムで表示させる動作を継続することを特徴とする超音波撮像装置。
2. The ultrasonic imaging apparatus according to claim 1, wherein the first processing unit is an image of a cross section of the subject at a current position of the ultrasonic probe that is moved by the user on the subject. Is generated and displayed on the connected display in real time,
The frame determination unit is preset with a plurality of the target cross sections,
When the frame determination unit determines that the image generated by the first processing unit is an image of one of the target cross sections, the second processing unit performs predetermined measurement on the determined image of the target cross section. During the processing, the first processing unit generates an image of a cross section of the subject at the current position of the ultrasonic probe that the user is moving on the subject, and the display unit An ultrasonic imaging apparatus characterized by continuing the operation of displaying the image in real time.
請求項1に記載の超音波撮像装置であって、前記超音波探触子の種類と、前記被検体における撮像対象の部位を受け付けるユーザーインタフェースと、前記超音波探触子の種類と前記撮像対象の部位の組み合わせごとに、前記目的断面と前記第2処理部の前記所定の処理の内容を示すテーブルを予め記憶したメモリ部と、制御部とをさらに有し、
前記制御部は、前記ユーザーインタフェースが受け付けた前記超音波探触子の種類と、前記被検体における撮像対象の部位に対応する前記目的断面と前記所定の処理の内容を、前記フレーム判定部と前記第2処理部にそれぞれ設定することを特徴とする超音波撮像装置。
The ultrasonic imaging apparatus according to claim 1, wherein the type of the ultrasonic probe, a user interface that receives a region to be imaged in the subject, the type of the ultrasonic probe, and the imaging target For each combination of parts, further comprising a memory unit that pre-stores a table indicating the target cross section and the content of the predetermined processing of the second processing unit, and a control unit,
The control unit includes the type of the ultrasound probe received by the user interface, the target cross section corresponding to the region to be imaged in the subject, and the content of the predetermined process, the frame determination unit, An ultrasonic imaging apparatus that is set in each of the second processing units.
請求項3に記載の超音波撮像装置であって、前記第2処理部は、前記第1処理部が生成した前記目的断面の画像を処理して画質評価値を求めるとともに、複数種類の前記撮像条件を変化させた画像を第1処理部の出力するデータを用いてそれぞれ生成して、それぞれについて画質評価値を求め、前記第1処理部が生成した前記目的断面の画像の画質評価値に対して最も画質評価値の向上が大きい撮像条件を、前記第1処理部に設定することを特徴とする超音波撮像装置。   4. The ultrasonic imaging apparatus according to claim 3, wherein the second processing unit obtains an image quality evaluation value by processing an image of the target cross section generated by the first processing unit, and a plurality of types of the imaging. Images with different conditions are generated using data output from the first processing unit, image quality evaluation values are obtained for the respective images, and the image quality evaluation value of the image of the target cross section generated by the first processing unit is obtained. An ultrasonic imaging apparatus characterized in that an imaging condition with the largest improvement in image quality evaluation value is set in the first processing unit. 請求項9に記載の超音波撮像装置であって、前記第2処理部は、前記撮像条件を変化させた場合のフレームレートを算出し、前記第1処理部のフレームレートが維持できる撮像条件の中で、前記画質評価値が最も大きい撮像条件を、前記第1処理部に設定することを特徴とする超音波撮像装置。   10. The ultrasonic imaging apparatus according to claim 9, wherein the second processing unit calculates a frame rate when the imaging condition is changed, and the imaging condition is such that the frame rate of the first processing unit can be maintained. Among them, an imaging condition having the largest image quality evaluation value is set in the first processing unit. 時系列な複数の超音波画像が格納されたメモリから前記画像を順次読み出して、被検体の予め定められた目的断面の画像かどうかを判定するフレーム判定部と、
前記フレーム判定部が、前記画像が前記目的断面の画像であると判定した場合、その画像およびその画像が生成された元の受信信号の少なくとも一方に対して、所定の処理を行う処理部とを有することを特徴とする超音波画像処理システム。

A frame determination unit that sequentially reads out the images from a memory in which a plurality of time-series ultrasonic images are stored, and determines whether the image is a predetermined target cross section of the subject;
When the frame determination unit determines that the image is an image of the target section, a processing unit that performs a predetermined process on at least one of the image and the original reception signal from which the image is generated An ultrasonic image processing system comprising:

JP2018043272A 2018-03-09 2018-03-09 Ultrasound imager Active JP6993907B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018043272A JP6993907B2 (en) 2018-03-09 2018-03-09 Ultrasound imager

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018043272A JP6993907B2 (en) 2018-03-09 2018-03-09 Ultrasound imager

Publications (2)

Publication Number Publication Date
JP2019154654A true JP2019154654A (en) 2019-09-19
JP6993907B2 JP6993907B2 (en) 2022-01-14

Family

ID=67992864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018043272A Active JP6993907B2 (en) 2018-03-09 2018-03-09 Ultrasound imager

Country Status (1)

Country Link
JP (1) JP6993907B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021115225A (en) * 2020-01-24 2021-08-10 キヤノン株式会社 Ultrasound diagnostic equipment, learning equipment, image processing methods and programs
JP2022551143A (en) * 2019-10-07 2022-12-07 コーニンクレッカ フィリップス エヌ ヴェ System and method for image optimization
WO2023281997A1 (en) * 2021-07-05 2023-01-12 富士フイルム株式会社 Ultrasound system and control method for ultrasound system
JP2023542371A (en) * 2020-09-24 2023-10-06 広州愛孕記信息科技有限公司 Method and device for determining fetal cross section based on ultrasound video images
JP2023170873A (en) * 2022-05-20 2023-12-01 富士フイルムヘルスケア株式会社 Ultrasound diagnostic equipment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011143141A (en) * 2010-01-18 2011-07-28 Hitachi Medical Corp Ultrasonograph
JP2013132390A (en) * 2011-12-26 2013-07-08 Toshiba Corp Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, medical imaging diagnostic apparatus, and ultrasonic image processing program
US20140185895A1 (en) * 2012-12-31 2014-07-03 General Electric Company Methods and systems for automated soft tissue segmentation, circumference estimation and plane guidance in fetal abdominal ultrasound images
JP2015061592A (en) * 2013-08-21 2015-04-02 コニカミノルタ株式会社 Ultrasonic diagnostic equipment, ultrasonic image processing method, and computer-readable non-temporary recording medium
WO2016194161A1 (en) * 2015-06-03 2016-12-08 株式会社日立製作所 Ultrasonic diagnostic apparatus and image processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011143141A (en) * 2010-01-18 2011-07-28 Hitachi Medical Corp Ultrasonograph
JP2013132390A (en) * 2011-12-26 2013-07-08 Toshiba Corp Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, medical imaging diagnostic apparatus, and ultrasonic image processing program
US20140185895A1 (en) * 2012-12-31 2014-07-03 General Electric Company Methods and systems for automated soft tissue segmentation, circumference estimation and plane guidance in fetal abdominal ultrasound images
JP2015061592A (en) * 2013-08-21 2015-04-02 コニカミノルタ株式会社 Ultrasonic diagnostic equipment, ultrasonic image processing method, and computer-readable non-temporary recording medium
WO2016194161A1 (en) * 2015-06-03 2016-12-08 株式会社日立製作所 Ultrasonic diagnostic apparatus and image processing method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022551143A (en) * 2019-10-07 2022-12-07 コーニンクレッカ フィリップス エヌ ヴェ System and method for image optimization
JP7672398B2 (en) 2019-10-07 2025-05-07 コーニンクレッカ フィリップス エヌ ヴェ Systems and methods for image optimization - Patents.com
JP2021115225A (en) * 2020-01-24 2021-08-10 キヤノン株式会社 Ultrasound diagnostic equipment, learning equipment, image processing methods and programs
JP7346314B2 (en) 2020-01-24 2023-09-19 キヤノン株式会社 Ultrasonic diagnostic equipment, learning equipment, image processing methods and programs
JP2023542371A (en) * 2020-09-24 2023-10-06 広州愛孕記信息科技有限公司 Method and device for determining fetal cross section based on ultrasound video images
JP7531946B2 (en) 2020-09-24 2024-08-13 広州愛孕記信息科技有限公司 Method and device for determining fetal slices based on ultrasonic video images
WO2023281997A1 (en) * 2021-07-05 2023-01-12 富士フイルム株式会社 Ultrasound system and control method for ultrasound system
JP2023170873A (en) * 2022-05-20 2023-12-01 富士フイルムヘルスケア株式会社 Ultrasound diagnostic equipment

Also Published As

Publication number Publication date
JP6993907B2 (en) 2022-01-14

Similar Documents

Publication Publication Date Title
JP4416256B2 (en) Ultrasonic imaging device
EP2232299B1 (en) Method and system for imaging vessels
CN102727250B (en) Ultrasound diagnosis apparatus and controlling method
JP5586203B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic image processing program
US9743910B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, medical image diagnostic apparatus, and medical image processing apparatus
JP6116853B2 (en) Ultrasonic diagnostic apparatus and image processing method
JP6993907B2 (en) Ultrasound imager
JP2005342006A (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic signal processing program
EP1514516B1 (en) Ultrasonic diagnostic equipment
WO2015040710A1 (en) Diagnostic ultrasound apparatus, medical image-processing device and medical image-processing method
JP2013144050A (en) Ultrasonic diagnostic apparatus, medical image processing apparatus, and ultrasonic diagnostic apparatus control program
JPH08173422A (en) Ultrasonic diagnostic equipment
JP4667394B2 (en) Ultrasonic diagnostic equipment
JP2014000260A (en) Ultrasonic diagnostic device, medical image processor, medical image processing method and medical image processing program
JP2001061841A (en) Ultrasound diagnostic apparatus and method for generating ultrasound image
JP2011087710A (en) Ultrasonic diagnostic apparatus
US11039777B2 (en) Ultrasonic diagnostic apparatus and control method
WO2014013839A1 (en) Ultrasonic diagnostic device and image processing device
JP2016067720A (en) Ultrasonic diagnostic apparatus, ultrasonic image processor and ultrasonic image processing program
JPH0227631B2 (en)
JP6727363B2 (en) Medical diagnostic apparatus, medical image processing apparatus, and medical image processing method
JP4745455B2 (en) Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic signal processing program
JP2011045660A (en) Ultrasonic diagnostic apparatus and ultrasonic image processor
JP4497611B2 (en) Ultrasonic diagnostic equipment
JP2010279500A (en) Ultrasonic diagnostic apparatus and control program thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200508

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210609

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20211013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211210

R150 Certificate of patent or registration of utility model

Ref document number: 6993907

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250