[go: up one dir, main page]

JP2003079620A - Ultrasonic panorama image forming system - Google Patents

Ultrasonic panorama image forming system

Info

Publication number
JP2003079620A
JP2003079620A JP2001279485A JP2001279485A JP2003079620A JP 2003079620 A JP2003079620 A JP 2003079620A JP 2001279485 A JP2001279485 A JP 2001279485A JP 2001279485 A JP2001279485 A JP 2001279485A JP 2003079620 A JP2003079620 A JP 2003079620A
Authority
JP
Japan
Prior art keywords
image
frame
points
point
image frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001279485A
Other languages
Japanese (ja)
Other versions
JP4704630B2 (en
Inventor
Tsunehisa Izawa
恒久 井沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Aloka Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aloka Co Ltd filed Critical Aloka Co Ltd
Priority to JP2001279485A priority Critical patent/JP4704630B2/en
Publication of JP2003079620A publication Critical patent/JP2003079620A/en
Application granted granted Critical
Publication of JP4704630B2 publication Critical patent/JP4704630B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To form a panorama image of an ultrasonic diagnosing image by a comparatively small computation amount. SOLUTION: An image frame 100 is divided into a plurality of divided regions 104. Then, detection regions 110 are determined by removing a moving margin 106 or the like from respective regions 104, for which a probe movement between frames is taken under consideration. Then, for respective detection regions 110, a picture element wherein a difference in a picture element value with the picture elements on the periphery is largest is detected as candidates points 120a to 120d. The dispersion of a matrix region for an N×N picture element in the vicinity of the points is obtained for respective candidates points 120a to 120d. At the same time, distances between the points are obtained, and two candidates points wherein the dispersion is as large as possible, and the distance between them becomes as large as possible are selected as reference points 130a and 130b. Then, areas which match the images of the vicinity regions of respective reference points 130a and 130b are respectively detected from the following image frame. Then, an image is synthesized by positioning both frames in such a manner that two reference points 130a and 130b of the image frame 100 and corresponding areas of the following frame may coincide.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、超音波プローブを
移動させたときの診断画像の画像フレームから、パノラ
マ画像を生成するための技術に関する。
TECHNICAL FIELD The present invention relates to a technique for generating a panoramic image from an image frame of a diagnostic image when an ultrasonic probe is moved.

【0002】[0002]

【従来の技術】電子走査型超音波プローブはビームの走
査範囲が限られているため、診断範囲が広い場合には、
ユーザがプローブを動かすことでその診断範囲をカバー
している。また、プローブを動かしたときに得られる超
音波診断画像の動像フレームを合成してパノラマ画像を
生成する技術も各種提案されている。
2. Description of the Related Art An electronic scanning ultrasonic probe has a limited beam scanning range.
The user moves the probe to cover the diagnostic range. Also, various techniques have been proposed for synthesizing moving image frames of ultrasonic diagnostic images obtained when a probe is moved to generate a panoramic image.

【0003】例えば、位置センサを備えた機械式走査機
構に電子走査型超音波プローブを取り付け、位置センサ
で得られた位置情報をもとに各時点での画像フレームを
合成するものは古くから知られている。しかしながら、
このタイプは装置構成が大規模になり、また被検体表面
の曲面形状に沿って正確に超音波プローブを移動させる
ことが困難であるという問題がある。
For example, it has long been known to attach an electronic scanning ultrasonic probe to a mechanical scanning mechanism equipped with a position sensor and synthesize an image frame at each time point based on the position information obtained by the position sensor. Has been. However,
This type has a problem in that the device configuration is large-scaled and it is difficult to accurately move the ultrasonic probe along the curved surface shape of the subject surface.

【0004】そこで、近年では、画像処理により画像フ
レームを正しい位置関係でパノラマ合成する技術が研究
されている。
Therefore, in recent years, a technique for panoramic composition of image frames in a correct positional relationship by image processing has been studied.

【0005】例えば特開2000−217815号に
は、動画像フレームの単一の特定領域の画像のフレーム
間での移動量及び回転量を求め、これら移動量及び回転
量に基づいて画像フレーム同士を位置合わせして合成し
ている。この技術では、画像の移動量は、その特定領域
の投影分布のフレーム間での相関から求めている。また
回転量は、その特定領域を1軸方向に複数の部分領域に
分割し、各部分領域ごとにその投影分布のフレーム間相
関から移動量を求め、それら部分領域間の移動量の差か
ら求めている。
For example, in Japanese Patent Laid-Open No. 2000-217815, the moving amount and the rotating amount between frames of a single specific area of a moving image frame are obtained, and image frames are moved to each other based on the moving amount and the rotating amount. It is aligned and synthesized. In this technique, the amount of movement of the image is obtained from the correlation between the frames of the projection distribution of the specific area. Further, the rotation amount is obtained by dividing the specific region into a plurality of partial regions in one axis direction, obtaining the movement amount from the inter-frame correlation of the projection distribution for each partial region, and obtaining from the difference in the movement amount between the partial regions. ing.

【0006】また同様の従来技術として、米国特許第
5,575,286号“Method and apparatus for gen
erating large compound ultrasound image”がある。
この従来技術では、超音波画像フレームを複数の領域に
分割し、各領域のフレーム間での移動をパターンマッチ
ング等により求め、それら各領域の移動から画像全体の
フレーム間の移動ベクトルを求める。そして、この画像
全体の移動ベクトルに合わせて画像フレーム同士を合成
する。ここで各領域ごとの移動は、各領域の画像に対応
する対応領域を次の画像フレームからパターンマッチン
グで求めることにより算出している。ここで各領域の移
動ベクトルには、フレーム間のパターンマッチングの度
合いや、過去の移動履歴との整合性に基づいて、品質及
び信頼度という評価値が与えられ、この評価値に応じて
それら各領域の移動ベクトルを重み付け平均することで
全体の移動ベクトルを求めている。
As a similar prior art, US Pat. No. 5,575,286 entitled "Method and apparatus for gen"
erating large compound ultrasound image ”.
In this conventional technique, an ultrasonic image frame is divided into a plurality of regions, the movement between the frames of each region is obtained by pattern matching, and the movement vector between the frames of the entire image is obtained from the movement of each region. Then, the image frames are combined with each other in accordance with the movement vector of the entire image. Here, the movement for each area is calculated by obtaining the corresponding area corresponding to the image of each area from the next image frame by pattern matching. Here, the movement vector of each area is given an evaluation value of quality and reliability based on the degree of pattern matching between frames and the consistency with the past movement history. The overall movement vector is obtained by weighted averaging the movement vectors of the regions.

【0007】[0007]

【発明が解決しようとする課題】画像処理を利用してフ
レーム間での画像の移動(画像フレーム同士の位置関
係)を求めてパノラマ合成を実現する従来技術は、いず
れも非常に計算量が多く、多大のコンピュータ能力や計
算時間を要するという問題があった。
The conventional techniques for realizing panorama synthesis by obtaining image movement between frames (positional relationship between image frames) by using image processing have a large amount of calculation. However, there is a problem that a large amount of computer power and calculation time are required.

【0008】本発明は、このような課題に鑑みなされた
ものであり、比較的少ない計算量で超音波診断画像のパ
ノラマ合成を実現できる装置を提供することを目的とす
る。
The present invention has been made in view of the above problems, and an object thereof is to provide an apparatus capable of realizing panoramic synthesis of ultrasonic diagnostic images with a relatively small amount of calculation.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するた
め、本発明は、超音波診断装置により得られる複数の画
像フレームを合成してパノラマ画像を形成する装置であ
って、合成対象とする第1画像フレーム及び第2画像フ
レームのうち、第1画像フレームに複数の候補点検出領
域を設定し、それら各候補点検出領域から、それぞれ周
囲の画素との画素値の差が最も大きい画素を候補点とし
て検出する候補点検出手段と、前記各候補点の中から、
近傍所定範囲の画素値の分散及び相互の距離を考慮した
所定の規則に従って2つの基準点を選択する基準点選択
手段と、選択された各基準点ごとに、その点の近傍所定
範囲の画像パターンと最もよく適合する画像パターンを
近傍に持つ点を、前記基準点に対応する対応点として前
記第2画像フレームから探索する対応点探索手段と、互
いに対応する前記基準点と前記対応点とが一致するよう
前記第1画像フレームに対して前記第2画像フレームを
位置合わせして合成する画像合成手段と、を含む超音波
パノラマ画像形成装置を提供する。
In order to achieve the above object, the present invention is an apparatus for synthesizing a plurality of image frames obtained by an ultrasonic diagnostic apparatus to form a panoramic image. Of the one image frame and the second image frame, a plurality of candidate point detection areas are set in the first image frame, and from each of these candidate point detection areas, the pixel having the largest pixel value difference with the surrounding pixels is selected as a candidate. From the candidate point detecting means for detecting as a point and each of the candidate points,
Reference point selecting means for selecting two reference points according to a predetermined rule considering the dispersion of pixel values in a predetermined neighborhood and mutual distances, and for each selected reference point, an image pattern in a predetermined range near that reference point The corresponding point searching means for searching the second image frame for a point having an image pattern most closely matching with as a corresponding point corresponding to the reference point, and the reference point and the corresponding point corresponding to each other coincide with each other. And an image synthesizing unit for synthesizing the second image frame by aligning the second image frame with the first image frame.

【0010】この構成では、第1画像フレーム中に設定
した複数の候補点検出領域から候補点が検出され、それ
ら候補点の中からフレーム間の位置合わせの基準となる
2つの基準点が選択される。候補点は、周囲の画素との
画素値の差を検査するという比較的簡単な処理に基づき
求められ、それら候補点に対して、近傍所定範囲の画素
値の分散やそれら候補点同士相互の距離など、基準点と
しての適性に関するより詳細な検査が行われる。これに
より選択された2つの基準点に対応する対応点をパター
ンマッチングにより第2画像フレームから求め、基準点
と対応点とが一致するように第1,第2画像フレームを
位置合わせすることで、それら両画像フレームを正しい
位置関係で合成することができる。
With this configuration, candidate points are detected from a plurality of candidate point detection areas set in the first image frame, and two reference points serving as a reference for frame alignment are selected from the candidate points. It Candidate points are obtained based on a relatively simple process of inspecting the difference in pixel value from surrounding pixels, and with respect to these candidate points, the variance of pixel values in a predetermined neighborhood range and the distance between these candidate points are determined. For example, a more detailed inspection regarding suitability as a reference point is performed. Thus, the corresponding points corresponding to the two selected reference points are obtained from the second image frame by pattern matching, and the first and second image frames are aligned so that the reference points and the corresponding points match, Both of these image frames can be combined in the correct positional relationship.

【0011】この構成において、基準点選択手段で用い
る前記所定の規則としては、例えば前記近傍所定範囲の
画素値の分散が大きい候補点ほど基準点に選択されやす
くする、という規則や、相互の距離が大きい候補点のペ
アほど基準点に選択されやすくする、という規則などが
考えられる。
In this configuration, the predetermined rule used by the reference point selecting means is, for example, a rule that a candidate point having a larger variance of pixel values in the predetermined vicinity range is more likely to be selected as the reference point, or a mutual distance. A rule such that a pair of candidate points having a larger value is more likely to be selected as a reference point may be considered.

【0012】また上記発明の好適な態様では、前記候補
点検出手段は、前記第1画像フレームにおいて、皮膚層
を表す領域と想定される所定範囲を除いた範囲に、複数
の前記候補点検出領域を設定する。この態様によれば、
画像としての特徴の少ない皮膚層の範囲をあらかじめ省
くことで、候補点検出処理の処理量を軽減できる。
Further, in a preferred aspect of the present invention, the candidate point detection means includes a plurality of the candidate point detection areas in a range excluding a predetermined range assumed to be an area representing a skin layer in the first image frame. To set. According to this aspect,
The processing amount of the candidate point detection processing can be reduced by omitting the range of the skin layer having few features as an image in advance.

【0013】また別の好適な態様では、前記候補点検出
手段は、前記第1画像フレームと前記第2画像フレーム
との間での画像化範囲の想定最大移動量に基づき、前記
第1画像フレームのうち前記第2画像フレームから外れ
ない範囲の中に複数の前記候補点検出領域を設定する。
候補点検出領域をこのように限定することで、基準点の
対応点が必ず第2画像フレーム中に存在することを保証
できる。
In still another preferred aspect, the candidate point detecting means is configured to detect the first image frame based on an estimated maximum movement amount of an imaging range between the first image frame and the second image frame. A plurality of candidate point detection areas are set within a range that does not deviate from the second image frame.
By limiting the candidate point detection area in this way, it can be guaranteed that the corresponding point of the reference point always exists in the second image frame.

【0014】[0014]

【発明の実施の形態】以下、本発明の実施の形態(以下
実施形態という)について、図面に基づいて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention (hereinafter referred to as embodiments) will be described below with reference to the drawings.

【0015】図1は、本発明に係る超音波パノラマ画像
形成装置を含む超音波診断システムの概要を示す図であ
る。
FIG. 1 is a diagram showing an outline of an ultrasonic diagnostic system including an ultrasonic panoramic image forming apparatus according to the present invention.

【0016】図1の構成において、超音波診断装置本体
部10は、超音波プローブ12を備え、このプローブ1
2による被検体への超音波送受によって、Bモード断層
像やドプラ断層像などの超音波診断画像を形成するため
の装置である。この超音波診断装置本体部10として
は、従来からある一般的な超音波診断装置を用いること
ができる。プローブ12は、電子走査式アレイ振動子を
備えている。このプローブ12を、被検体の体表に沿っ
てアレイ方向にゆっくり動かすことで、アレイ振動子の
電子走査範囲が徐々に移動していく。これに応じて、超
音波診断装置本体部10からは、現在のプローブ12の
電子走査範囲に応じたリアルタイム画像(動画像)の信
号が出力される。
In the configuration of FIG. 1, the ultrasonic diagnostic apparatus main body portion 10 is provided with an ultrasonic probe 12, and this probe 1
2 is an apparatus for forming an ultrasonic diagnostic image such as a B-mode tomographic image or a Doppler tomographic image by transmitting and receiving ultrasonic waves to and from a subject by the device 2. As the ultrasonic diagnostic apparatus main body 10, a conventional general ultrasonic diagnostic apparatus can be used. The probe 12 includes an electronic scanning array transducer. By slowly moving the probe 12 in the array direction along the body surface of the subject, the electronic scanning range of the array transducer gradually moves. In response to this, a signal of a real-time image (moving image) corresponding to the current electronic scanning range of the probe 12 is output from the ultrasonic diagnostic apparatus body 10.

【0017】パノラマ画像形成部20は、超音波診断装
置本体部10から供給されるリアルタイム画像からパノ
ラマ画像を形成する。
The panoramic image forming section 20 forms a panoramic image from the real-time image supplied from the ultrasonic diagnostic apparatus main body section 10.

【0018】パノラマ画像形成部20には、2つのフレ
ームメモリ22,24が設けられている。各フレームメ
モリ22,24は、そのリアルタイム画像の1フレーム
の画像データを保持することができる。フレームメモリ
24には、フレームメモリ22よりも1フレーム前の画
像が格納される。本実施形態では、これら2フレームの
画像からそれら両画像の位置関係を求め、その位置関係
に従って画像合成を行う。この処理の基本的な考え方
は、一方のフレームの画像から特徴的な部位を2箇所選
び、もう一方の画像からそれら各特徴部位にマッチング
する部位を探索し、これらマッチングする部位同士が一
致するようにそれら2つのフレームを位置合わせして合
成するというものである。
The panorama image forming section 20 is provided with two frame memories 22 and 24. The frame memories 22 and 24 can hold one frame of image data of the real-time image. The frame memory 24 stores an image one frame before the frame memory 22. In the present embodiment, the positional relationship between these two images is obtained from the images of these two frames, and image composition is performed according to the positional relationship. The basic idea of this processing is to select two characteristic parts from the image of one frame, search for a part that matches each of the characteristic parts from the other image, and make sure that these matching parts match each other. Then, the two frames are aligned and combined.

【0019】この画像合成処理のため、まず基準点決定
部26が、それら2フレームのうちの前の方のフレーム
である第nフレーム(nは整数)の画像から、前述の2
つの特徴部位に対応する2つの基準点を決定する。
For this image synthesizing process, first, the reference point determining unit 26 determines the above-mentioned 2 from the image of the nth frame (n is an integer) which is the previous frame of the two frames.
Two reference points corresponding to one feature part are determined.

【0020】図2はこの基準点決定部26の処理手順を
示すフローチャートであり、図3はこの手順に従って基
準点が決定されるまでの様子を示した図である。
FIG. 2 is a flow chart showing the processing procedure of the reference point determining section 26, and FIG. 3 is a diagram showing the manner until the reference point is determined according to this procedure.

【0021】これら各図を参照して説明すると、まず基
準点決定部26は、第nフレームの画像から、超音波プ
ローブ側の所定幅の領域を皮膚部カットエリア102と
して除き、画像フレーム100の残りの領域を縦横にそ
れぞれ2分割して合計4個の分割領域104に分割する
(S10。図3(a)参照)。
Explaining with reference to these figures, first, the reference point determining section 26 removes a region of a predetermined width on the ultrasonic probe side as a skin cut area 102 from the image of the n-th frame and removes the image frame 100 from the image frame 100. The remaining area is vertically and horizontally divided into two, respectively, and divided into a total of four divided areas 104 (S10; see FIG. 3A).

【0022】ここで、皮膚部カットエリア102は、被
検体の皮膚部分に相当する領域である。皮膚部分は組織
の均質性が高く、また超音波反射強度が高いため、全体
的に均質な画像となるので、マッチングのための特徴部
位を見つけ出す領域としては不適当である。このため、
本実施形態では、被検体表面から所定の深さまでの領域
を皮膚部カットエリア102とし、このエリアを基準点
の検出範囲からあらかじめ省く。
Here, the skin part cut area 102 is a region corresponding to the skin part of the subject. Since the skin portion has a high tissue homogeneity and a high ultrasonic reflection intensity, the image becomes a homogeneous image as a whole, which is unsuitable as a region for finding a characteristic portion for matching. For this reason,
In the present embodiment, the area from the surface of the subject to a predetermined depth is set as the skin cut area 102, and this area is omitted from the detection range of the reference point in advance.

【0023】次に、これら4分割した各分割領域104
から移動マージン106と接近防止マージン108を除
いた部分を検出領域110に設定する(S12。図3
(b)参照)。検出領域110は、基準点の候補となる
候補点を探索する対象領域である。
Next, each of these four divided areas 104
A portion excluding the movement margin 106 and the approach prevention margin 108 is set as the detection area 110 (S12. FIG. 3).
(See (b)). The detection area 110 is a target area for searching for candidate points that are candidates for reference points.

【0024】ここで、移動マージン106は、2フレー
ム間での電子走査範囲の移動を考慮したマージンであ
り、各分割領域104の外周各辺のうち画像フレームの
外周に沿った辺について設けられる。移動マージン10
6は、該走査範囲のフレーム間で移動量の想定上限値
(これを最大移動量と呼ぶ)に応じてその幅が定められ
る。この最大移動量は、ユーザが手操作でプローブ12
を移動させるするときの速度の上限値などに応じてあら
かじめ定めておく。この移動速度上限値は、任意に定め
てユーザに守ってもらうようにしてもよい。また、フレ
ームレート等との兼ね合いで、有意な診断画像が得られ
るプローブ移動速度の上限値は自ずと定まるので、これ
を基準にしてもよい。このような最大移動量に相当する
移動マージン106を考慮して検出領域110を規定す
ることで、一方のフレームの検出領域110から選択し
た点の対応点が他方のフレーム内に存在することを保証
することができる。なお、最大移動量は、診断装置の表
示画面での水平方向(すなわちユーザが手操作でプロー
ブ12を移動させる方向)、垂直方向(被検体表面の起
伏に対応した方向)のそれぞれについて個別に設定でき
るようにすることも好適である。
Here, the movement margin 106 is a margin in consideration of the movement of the electronic scanning range between two frames, and is provided for the side along the outer circumference of the image frame among the outer sides of each divided area 104. Moving margin 10
The width of 6 is set according to an assumed upper limit value of the movement amount between frames in the scanning range (this is called the maximum movement amount). This maximum movement amount is determined by the user manually operating the probe 12
It is set in advance according to the upper limit of the speed when moving the. The upper limit value of the moving speed may be arbitrarily determined and may be protected by the user. In addition, the upper limit of the probe moving speed at which a significant diagnostic image can be obtained is naturally determined in consideration of the frame rate and the like, and this may be used as a reference. By defining the detection area 110 in consideration of the movement margin 106 corresponding to such a maximum movement amount, it is ensured that the corresponding point of the point selected from the detection area 110 of one frame exists in the other frame. can do. The maximum movement amount is individually set in each of the horizontal direction (that is, the direction in which the user manually moves the probe 12) on the display screen of the diagnostic device and the vertical direction (the direction corresponding to the undulation of the surface of the subject). It is also preferable to be able to do so.

【0025】接近防止マージン108は、各検出領域1
10から選ぶ候補点同士が近づきすぎないようにするた
めのマージンであり、各検出領域110の外周辺のうち
他の検出領域110との境界の辺に対して設定される。
すなわち、本実施形態では一方のフレームから選んだ2
つの基準点を結ぶ直線と、他方のフレームから求めたそ
れら各基準点の対応点同士を結ぶ直線とのなす角から、
2フレーム間での画像の回転量を求めるが、基準点の候
補である候補点同士が近いほど、基準点同士の距離も近
くなる可能性が高くなり、この結果対応点を求めたとき
の1画素の誤差が回転量に大きな誤差を招いてしまう。
接近防止マージン108はこのような問題を回避するた
めに設けたものである。
The approach prevention margin 108 is defined by each detection area 1
This is a margin for preventing candidate points selected from 10 from coming too close to each other, and is set for the side of the boundary with another detection area 110 in the outer periphery of each detection area 110.
That is, in this embodiment, 2 selected from one frame
From the angle formed by the straight line connecting the two reference points and the line connecting the corresponding points of the respective reference points obtained from the other frame,
The rotation amount of the image between the two frames is calculated. The closer the candidate points that are the candidates for the reference points are, the higher the possibility that the distances between the reference points will be closer. As a result, 1 The pixel error causes a large error in the rotation amount.
The approach prevention margin 108 is provided to avoid such a problem.

【0026】このようにして4つの検出領域110が設
定されると、次に各検出領域110からそれぞれ1つず
つ候補点120a〜120dを検出する(S14。図3
(c)参照)。この処理では、検出領域110内の各画
素ごとに、その画素と周囲の隣接画素(例えば上下左右
の隣接4画素、又は斜め隣接も加えた隣接8画素など)
との画素値の差を求め、この差が該検出領域110内で
最大となる画素を候補点として選択する。例えばBモー
ド画像の場合、画素値としては輝度を用い、周囲との輝
度の差が最大となる点を求める。また、ある画素と周囲
との画素値の差といった場合、例えば、周囲の画素(隣
接画素)の画素値の平均と、当該画素の画素値との差を
用いたり、あるいは当該画素と各隣接画素との画素値差
のうちの最小値を用いたりすることが考えられる。この
ようにして求められた候補点は、検出領域内で画素値が
最も急激に変化する点であり、画像的な特徴が強いので
パターンマッチングが行いやすい。
When the four detection areas 110 are set in this way, one candidate point 120a to 120d is detected from each detection area 110 (S14, FIG. 3).
(See (c)). In this process, for each pixel in the detection area 110, the pixel and its neighboring pixels (for example, 4 pixels adjacent to the top, bottom, left, and right, or 8 pixels adjacent to each other including diagonally adjacent pixels)
The pixel value difference between and is calculated, and the pixel having the maximum difference in the detection area 110 is selected as a candidate point. For example, in the case of a B-mode image, brightness is used as the pixel value, and the point where the difference in brightness from the surroundings is the maximum is obtained. Further, in the case of a difference in pixel value between a pixel and its surroundings, for example, the difference between the average of the pixel values of surrounding pixels (adjacent pixels) and the pixel value of the pixel is used, or the pixel and each adjacent pixel are used. It is conceivable to use the minimum value of the pixel value differences between and. The candidate point thus obtained is the point where the pixel value changes most rapidly in the detection area, and has strong image characteristics, so pattern matching is easy to perform.

【0027】各検出領域110からそれぞれ候補点12
0a〜120dが求められると、次にそれら候補点の中
から2つの点を基準点130a,130bとして選択す
る(S16。図3(d)参照)。選択は、できるだけ特
徴的な点を選び、できるだけ距離の離れた2つの点を選
ぶ、という2つの方針に従って行う。実際の選択処理の
手順としては、この2つの方針の組合せ方によっていろ
いろな方法が考えられる。
Candidate points 12 from each detection region 110
When 0a to 120d are obtained, next, two points are selected as the reference points 130a and 130b from the candidate points (S16, see FIG. 3D). Selection is done according to the two policies of selecting points that are as characteristic as possible and two points that are as far apart as possible. As a procedure of the actual selection process, various methods can be considered depending on how to combine these two policies.

【0028】一例として、第1段階として4つの候補点
の中から近傍所定領域の画素値(Bモードの場合は輝
度)の分散が最も小さい点を除き、第2段階として残っ
た3つの候補点の中で、4つの検出領域110のうち画
像フレームの対角線(斜め)関係にある2領域の候補点
を基準点に選択する(図3(d)の例では検出領域1と
4の候補点が基準点130a,bに選ばれている)。こ
のうち第1段階は「できるだけ特徴的な点を選ぶ」とい
う方針に従ったものである。近傍所定領域の分散が大き
いほど、その近傍領域内にパターンマッチングのポイン
トとなる特徴部が多いので、基準点としての適性が高
い。候補点の近傍所定領域としては、例えば当該候補点
を中心とするN×N画素のマトリクス領域を用いること
ができる。マトリクス領域は、小さすぎると信頼性が低
くなり、大きすぎると分散の計算の量が膨大になるの
で、これらのトレードオフを考慮してマトリクス領域の
サイズを定める。例えば、画像フレームのサイズ460
×400画素に対して32×32画素をマトリクス領域
とする等の例が考えられる。また、前述の手順の第2段
階は、「できるだけ距離の離れた2点を選ぶ」という方
針に則したものである。すなわち、検出領域110を図
3に例示した2×2の配置で設定した場合、上下又は左
右に隣接した2領域の候補点を選ぶより、対角線方向の
2領域の候補点を選んだ方が、候補点間の距離が大きく
なる可能性が高い。個々の候補点同士の組合せについて
距離を求め、その中で最大距離となるものを求める方法
も考えられるが、自動的に対角線方向を選択する方が計
算量が少なくて済む。
As an example, in the first stage, the three candidate points remaining in the second stage are excluded from the four candidate points except that the pixel value (luminance in the case of B mode) in the neighboring predetermined area has the smallest variance. Among the four detection areas 110, candidate points of two areas having a diagonal line (diagonal) relationship of the image frame are selected as reference points (in the example of FIG. 3D, the candidate points of the detection areas 1 and 4 are selected). (Selected as the reference points 130a and 130b). Of these, the first stage follows the policy of "picking the most characteristic points". The larger the variance of the predetermined neighborhood area is, the more characteristic portions are the points for pattern matching in the neighborhood area, and thus the higher the suitability as a reference point is. As the predetermined area near the candidate point, for example, a matrix area of N × N pixels centering on the candidate point can be used. If the matrix area is too small, the reliability becomes low, and if it is too large, the amount of calculation of the variance becomes enormous. Therefore, the size of the matrix area is determined in consideration of these trade-offs. For example, the size of the image frame 460
An example is conceivable in which 32 × 32 pixels are used as a matrix area for x400 pixels. In addition, the second step of the above-mentioned procedure is based on the policy of “selecting two points that are as far apart as possible”. That is, when the detection area 110 is set in the 2 × 2 arrangement illustrated in FIG. 3, it is better to select candidate points of two areas in the diagonal direction than to select candidate points of two areas that are vertically or horizontally adjacent to each other. The distance between the candidate points is likely to be large. A method of obtaining a distance for each combination of individual candidate points and obtaining the maximum distance among them can be considered, but the calculation amount is smaller if the diagonal direction is automatically selected.

【0029】なお、この方法では、対角線方向の2つの
候補点は、近傍のマトリクス領域の分散が4つのうちで
最小ではないものの、分散が小さすぎてパターンマッチ
ング処理には適さない場合もあり得る。そこで、マトリ
クス領域の分散に関して下限値を定めておき、候補点の
マトリクス領域の分散がその下限値を下回る場合は、そ
の候補点を用いないようにするなどの処理も好適であ
る。処理の流れとしては、例えば、まず分散が最小の候
補点を除く3つの候補点の中から対角線方向の2点を選
び、それら各候補点についての分散が共に前記下限値以
上であればそれら2点を基準点として選び、そうでなけ
れば下限値以下の分散に対応する候補点を除いた残りの
2個の候補点を基準点に選択する。
In this method, the two candidate points in the diagonal direction have the smallest variance among the four matrix areas in the vicinity, but the variance is too small to be suitable for the pattern matching process. . Therefore, it is also preferable that a lower limit value is set for the variance of the matrix region, and if the variance of the candidate region in the matrix region is less than the lower limit value, the candidate point is not used. As a processing flow, for example, first, two points in the diagonal direction are selected from three candidate points excluding the candidate point having the smallest variance, and if the variances of the respective candidate points are both equal to or more than the lower limit value, the two A point is selected as the reference point, and if not, the remaining two candidate points excluding the candidate points corresponding to the variance equal to or lower than the lower limit value are selected as the reference points.

【0030】なお、4つの候補点のうちの3つ以上の分
散がこの下限値を下回る場合もないとは言えないが、そ
のような場合には、下限値を下回った候補点に対して同
じ検出領域から別の点を候補点(例えば周囲との画素値
差が2位の点など)として選び、上記の処理を行えばよ
い。
It can be said that the variance of three or more of the four candidate points may fall below this lower limit value, but in such a case, the same applies to candidate points below the lower limit value. It is only necessary to select another point from the detection area as a candidate point (for example, a point whose pixel value difference from the surrounding is the second place) and perform the above processing.

【0031】以上、基準点決定部26による基準点決定
処理について説明した。このようにして第nフレームか
ら2つの基準点が選択されると、次に相関演算部28
が、それら各基準点の対応点を第n+1フレームから検
出する。この場合、相関演算部28は、図4に示すよう
に、第nフレームの基準点130を中心とした所定範囲
の画像をテンプレート135として切り出すとともに、
第n+1フレーム上でのその基準点130の位置140
を中心に、対応点の探索領域142を設定する。対応点
は、理論上その位置140から、フレーム間の最大移動
量144の範囲にあるはずなので、その範囲を探索領域
142に設定する。この最大移動量は、前述の検出領域
110の設定の際に考慮したものとおなじでよい。そし
て、その探索領域142の範囲でテンプレート135の
中心を動かしながら、各位置でのテンプレート135と
第n+1フレームの画像との相関を求める。そして、そ
の相関が最も高くなったときのテンプレート135の中
心を、当該基準点130に対応する対応点に決定する。
The reference point determination processing by the reference point determination unit 26 has been described above. When two reference points are selected from the nth frame in this way, the correlation calculation unit 28
Detects the corresponding point of each of these reference points from the (n + 1) th frame. In this case, the correlation calculation unit 28 cuts out an image in a predetermined range around the reference point 130 of the nth frame as the template 135, as shown in FIG.
Position 140 of the reference point 130 on the (n + 1) th frame
A search area 142 for the corresponding point is set around. The corresponding point should theoretically be in the range of the maximum movement amount 144 between frames from the position 140, so that range is set in the search area 142. This maximum movement amount may be the same as that taken into consideration when setting the detection area 110 described above. Then, while moving the center of the template 135 within the range of the search area 142, the correlation between the template 135 at each position and the image of the (n + 1) th frame is obtained. Then, the center of the template 135 when the correlation is highest is determined as the corresponding point corresponding to the reference point 130.

【0032】このとき、テンプレート135としては、
ステップS14で用いたマトリクス領域と同じ、基準点
を中心とするN×N画素の領域を用いればよい。この場
合、テンプレート135と探索領域142の画像との相
関Rは、例えば次式により求めることができる。
At this time, as the template 135,
The same area as the matrix area used in step S14 and having N × N pixels centered on the reference point may be used. In this case, the correlation R between the template 135 and the image in the search area 142 can be obtained by the following equation, for example.

【0033】[0033]

【数1】 この式はBモード画像(画素値が輝度)の場合のもので
あり、Gray()は輝度値を示す。またi,jはN×N行列
のテンプレート135における列(i)及び行(j)の
インデックスであり、nは画像フレームの通し番号であ
る。したがって、Gray(n,i,j)はテンプレート135
(第nフレーム)の座標(i,j)の画素の輝度値を示
し、Gray(n+1,i,j)は第n+1フレームでの同じ座標に
おける輝度値を示す。
[Equation 1] This equation is for a B-mode image (pixel value is luminance), and Gray () indicates the luminance value. Further, i and j are indexes of columns (i) and rows (j) in the N × N matrix template 135, and n is a serial number of the image frame. Therefore, Gray (n, i, j) is the template 135
The luminance value of the pixel at the coordinate (i, j) in the (nth frame) is shown, and Gray (n + 1, i, j) indicates the luminance value at the same coordinate in the (n + 1) th frame.

【0034】なお、この相関演算式によるパターンマッ
チングはあくまで一例であり、公知の他のパターンマッ
チング手法を用いてももちろんよい。
The pattern matching based on the correlation calculation formula is merely an example, and other known pattern matching methods may be used.

【0035】このようにして相関演算部28が2つの基
準点の対応点をそれぞれ求めると、次に移動量・回転量
算出部30が、それら基準点と対応点の情報に基づき、
第nフレームと第n+1フレームとの間の画像の平行移
動量及び回転量を計算する。図5に示すように、基準点
Aに対して対応点A’が、基準点Bに対して対応点B’
がそれぞれ求められたとすると、まず基準点A(xn,
yn)と対応点A’(xn+1,yn+1)と間の変位(xn+1
−xn,yn+1−yn)を、第nフレームに対する第n+
1フレームの移動量とする。また、線分A’B’が線分
ABに対してなす角を、第nフレームに対する第n+1
フレームの回転量として求める。回転量は、例えば反時
計回りを正の方向として、符号によりその回転方向を表
す。したがって、第n+1フレームをその移動量だけ平
行移動させて対応点A’を基準点Aに一致させ、更にそ
の回転量だけ回転させて線分A’B’を線分ABに合わ
せることで、第n+1フレームの画像を第nフレームの
画像に対して位置合わせすることができる。なお、この
例では基準点Aに関して移動量を求めたが、基準点Bに
関して移動量を求めるようにしても実質的に同じ結果が
得られる。
When the correlation calculating unit 28 finds the corresponding points of the two reference points in this way, the moving amount / rotation amount calculating unit 30 then calculates the corresponding points based on the information of the reference points and the corresponding points.
The translation amount and rotation amount of the image between the nth frame and the (n + 1) th frame are calculated. As shown in FIG. 5, a corresponding point A ′ corresponds to the reference point A and a corresponding point B ′ corresponds to the reference point B.
, Respectively, first, the reference point A (xn,
yn) and the corresponding point A ′ (xn + 1, yn + 1) (xn + 1
-Xn, yn + 1-yn) is the n + th frame for the nth frame.
The amount of movement is one frame. Further, the angle formed by the line segment A′B ′ with respect to the line segment AB is the n + 1th frame for the nth frame.
Calculated as the amount of rotation of the frame. The rotation amount is represented by a sign, for example, with the counterclockwise direction as a positive direction. Therefore, the n + 1th frame is moved in parallel by the movement amount to match the corresponding point A ′ with the reference point A, and further rotated by the rotation amount to match the line segment A′B ′ with the line segment AB. The image of the (n + 1) th frame can be aligned with the image of the nth frame. In this example, the movement amount is obtained with respect to the reference point A, but even if the movement amount is obtained with respect to the reference point B, substantially the same result can be obtained.

【0036】このようにして移動量、回転量が求められ
ると、画像合成部34は、この情報に基づき、第n+1
フレームの画像をパノラマ画像メモリ36内の既存パノ
ラマ画像に合成する。すなわち、パノラマ画像メモリ3
6には、合成開始からこれまでに得られた画像フレーム
をパノラマ合成した合成画像が記憶されており、その合
成画像に対して第n+1フレームの画像を合成する。こ
こで、移動量・回転量算出部30で分かるのは、第nフ
レームに対する第n+1フレームの相対的な移動量、回
転量であって、パノラマ画像上での絶対的な位置や傾き
ではない。そこで、本実施形態では、基準位置情報保持
部32に第nフレームの画像のパノラマ画像上での絶対
位置及び傾きを記憶しておく。この記憶情報に対し移動
量・回転量算出部30で求めた移動量、回転量をそれぞ
れ加算することで、パノラマ画像上での第n+1フレー
ムの絶対位置及び傾きを求めることができ、これに従っ
て第n+1フレームを位置決めして合成すればよい。基
準位置情報保持部32の情報は、各フレーム間ごとに求
めた移動量及び回転量をそれぞれ順次加算することで更
新すればよい。
When the movement amount and the rotation amount are obtained in this way, the image synthesizing unit 34, based on this information,
The frame image is combined with the existing panoramic image in the panoramic image memory 36. That is, the panorama image memory 3
A composite image obtained by panoramic composition of image frames obtained from the start of composition is stored in 6, and the image of the (n + 1) th frame is composed with the composite image. Here, the movement amount / rotation amount calculation unit 30 understands the relative movement amount and rotation amount of the (n + 1) th frame with respect to the nth frame, not the absolute position or inclination on the panoramic image. Therefore, in the present embodiment, the reference position information holding unit 32 stores the absolute position and inclination of the image of the nth frame on the panoramic image. By adding the movement amount and the rotation amount obtained by the movement amount / rotation amount calculation unit 30 to the stored information, the absolute position and the inclination of the (n + 1) th frame on the panoramic image can be obtained, and accordingly, the absolute position and the inclination can be obtained. The n + 1 frames may be positioned and combined. The information in the reference position information holding unit 32 may be updated by sequentially adding the movement amount and the rotation amount obtained for each frame.

【0037】パノラマ画像メモリ36内の既存画像への
第n+1フレームの画像の合成は、上述の位置合わせを
行った後、重複部分の各画素については例えばそれら両
画像の画素値の平均をとるなどの処理により行えばよ
い。
In the synthesis of the image of the (n + 1) th frame with the existing image in the panoramic image memory 36, after performing the above-mentioned alignment, for each pixel in the overlapping portion, for example, the average of the pixel values of both images is taken. The processing may be performed by.

【0038】このようにしてフレームメモリ22内の第
n+1フレームの画像を合成し終わると、その画像がフ
レームメモリ24に移され、超音波診断装置本体部10
から供給される次のフレームの画像がフレームメモリ2
2に格納されて、以上の処理が繰り返される。
When the synthesis of the (n + 1) th frame image in the frame memory 22 is completed in this way, the image is transferred to the frame memory 24, and the ultrasonic diagnostic apparatus main body 10
The image of the next frame supplied from the frame memory 2
It is stored in 2, and the above processing is repeated.

【0039】このようにしてパノラマ画像メモリ36に
は、リアルタイム診断画像の画像フレーム100が順次
合成されたパノラマ画像200が形成される。そして、
このパノラマ画像200が表示装置40に表示される。
In this manner, the panoramic image 200 is formed in the panoramic image memory 36 by sequentially synthesizing the image frames 100 of the real-time diagnostic image. And
The panoramic image 200 is displayed on the display device 40.

【0040】以上説明したように、本実施形態によれ
ば、2つの基準点について、その基準点周りの比較的小
さい領域についてフレーム間でパターンマッチングを行
うことで両フレームの位置関係が特定できるので、従来
技術と比べてより簡単な演算でパノラマ合成ができる。
ここで基準点は、近傍所定領域の画素値分散や相互の距
離などからパターンマッチングに適した点を選んでいる
ので、これら基準点に基づく画像位置合わせもかなり高
い精度が期待できる。また、基準点の選択も、まず周囲
との画素値を調べるという簡単な演算で候補点を求め、
それら候補点の中から基準点を選び出すという2段階の
手順をとったので、基準点としての適性を見るための近
傍所定領域の画素値分散などの計算は少数の候補点につ
いて行うだけでよいため、全体としての計算量が少なく
て済む。
As described above, according to the present embodiment, the positional relationship between two reference points can be specified by performing pattern matching between frames for a relatively small area around the reference points. The panorama composition can be performed by simpler calculation than the conventional technology.
Here, as the reference points, points suitable for pattern matching are selected from the pixel value distribution of a predetermined area in the vicinity and mutual distances, so that image registration based on these reference points can also be expected to have considerably high accuracy. Also, in selecting the reference point, first, the candidate points are obtained by a simple operation of checking the pixel values with the surroundings,
Since a two-step procedure of selecting a reference point from those candidate points is taken, calculation of the pixel value variance of a predetermined area in the vicinity to see the suitability as a reference point need only be performed for a small number of candidate points. , The total amount of calculation is small.

【0041】また、本実施形態では、画像としての特徴
の少ない皮膚部分を除いた範囲から候補点を選ぶように
したので、候補点検出のための計算の量を少なくするこ
とができる。
Further, in the present embodiment, since the candidate points are selected from the range excluding the skin portion having few features as an image, the amount of calculation for detecting the candidate points can be reduced.

【0042】本実施形態のシステム構成において、パノ
ラマ画像形成部20は、典型的には、基準点決定部2
6、相関演算部28、移動量・回転量算出部30、基準
位置情報保持部32、画像合成部34などの機能モジュ
ールをプログラムとして実現し、コンピュータシステム
上で実行することにより実現できる。もちろん、それら
各機能の一部乃至全部をハードウエア化することも可能
である。パノラマ画像形成部20は、超音波診断装置に
内蔵することも、別体として構成することもできる。
In the system configuration of this embodiment, the panoramic image forming section 20 is typically a reference point determining section 2.
6, the correlation calculation unit 28, the movement amount / rotation amount calculation unit 30, the reference position information holding unit 32, the image synthesizing unit 34, and the like are realized as a program and executed on a computer system. Of course, it is also possible to implement some or all of these functions as hardware. The panoramic image forming unit 20 can be built in the ultrasonic diagnostic apparatus or can be configured separately.

【0043】なお、図1に示した装置構成はあくまで概
念的なものであり、この概念構成の範囲内で様々な実装
が可能であることはいうまでもない。例えば、フレーム
メモリ22,24は物理的には1つのメモリ上に実現す
ることが可能であり、さらにはパノラマ画像メモリ36
も同じ物理的メモリ上に実現することもできる。また、
以上の例では、フレームメモリ22の画像の合成が終わ
るとそれをフレームメモリ24に移すと説明したが、実
際の装置では1フレーム分のメモリ領域を2つ用意し、
それらを1フレーム毎に第nフレーム用の領域と第n+
1フレーム用の領域とに順次切り替えて利用するように
すれば、画像データの移動は不要である。
It is needless to say that the device configuration shown in FIG. 1 is conceptual only, and various implementations are possible within the range of this conceptual configuration. For example, the frame memories 22 and 24 can be physically realized on one memory, and further, the panoramic image memory 36.
Can also be implemented on the same physical memory. Also,
In the above example, it is described that when the composition of the image in the frame memory 22 is finished, the image is moved to the frame memory 24, but in an actual device, two memory areas for one frame are prepared,
The area for the nth frame and the n + th frame
If the area for one frame is sequentially switched and used, it is not necessary to move the image data.

【0044】また、以上で説明した例では、比較する2
フレームのうち前の方のフレームから基準点を求め、後
の方のフレームから対応点を求めたが、これを逆にする
ことも可能である。
In addition, in the example described above, the comparison
Although the reference point was obtained from the earlier frame of the frames and the corresponding point was obtained from the later frame, it is also possible to reverse this.

【0045】また、以上に例示した手順での候補点群か
ら基準点を絞り込む方法はあくまで一例である。このほ
かにも、例えば各候補点の近傍所定領域の画素値の分散
と、それら各候補点間の距離とを総合的に評価する評価
式を用意し、これによる評価の高い2つの候補点を基準
点に選ぶようにすることもできる。
The method of narrowing down the reference points from the candidate point group in the procedure described above is merely an example. In addition to this, for example, an evaluation formula that comprehensively evaluates the variance of pixel values in a predetermined area in the vicinity of each candidate point and the distance between each candidate point is prepared, and two candidate points with high evaluation by this are prepared. It is also possible to select it as a reference point.

【0046】[0046]

【発明の効果】以上説明したように、本発明によれば、
画像フレーム同士の位置関係を比較的簡単な演算で求め
ることができるので、少ない演算量でパノラマ画像を形
成することができる。
As described above, according to the present invention,
Since the positional relationship between image frames can be obtained by a relatively simple calculation, a panoramic image can be formed with a small amount of calculation.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明に係る超音波パノラマ画像形成装置を
含む超音波診断システムの概要を示す図である。
FIG. 1 is a diagram showing an outline of an ultrasonic diagnostic system including an ultrasonic panoramic image forming apparatus according to the present invention.

【図2】 基準点決定部の処理手順の例を示す図であ
る。
FIG. 2 is a diagram illustrating an example of a processing procedure of a reference point determination unit.

【図3】 基準点決定の手順を説明するための図であ
る。
FIG. 3 is a diagram for explaining a procedure for determining a reference point.

【図4】 基準点に対する対応点の探索領域を説明する
ための図である。
FIG. 4 is a diagram for explaining a search area for a corresponding point with respect to a reference point.

【図5】 フレーム間の移動量及び回転量を説明するた
めの図である。
FIG. 5 is a diagram for explaining a movement amount and a rotation amount between frames.

【符号の説明】[Explanation of symbols]

10 超音波診断装置本体部、20 パノラマ画像形成
部、22,24 フレームメモリ、26 基準点決定
部、28 相関演算部、30 移動量・回転量算出部、
32 基準位置情報保持部、34 画像合成部、36
パノラマ画像メモリ、40 表示装置。
10 ultrasonic diagnostic apparatus main body section, 20 panoramic image forming section, 22, 24 frame memory, 26 reference point determining section, 28 correlation calculating section, 30 movement amount / rotation amount calculating section,
32 reference position information holding unit, 34 image compositing unit, 36
Panorama image memory, 40 displays.

フロントページの続き Fターム(参考) 4C301 EE08 JB21 JB29 JC14 4C601 EE05 JB34 JB45 JC15 JC20 JC21 5B057 AA07 BA05 BA24 CA02 CA08 CA12 CA16 CB02 CB12 CB16 CC03 CE10 DA07 DB02 DB05 DB09 DC05 DC22 DC33 DC36Continued front page    F-term (reference) 4C301 EE08 JB21 JB29 JC14                 4C601 EE05 JB34 JB45 JC15 JC20                       JC21                 5B057 AA07 BA05 BA24 CA02 CA08                       CA12 CA16 CB02 CB12 CB16                       CC03 CE10 DA07 DB02 DB05                       DB09 DC05 DC22 DC33 DC36

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 超音波診断装置により得られる複数の画
像フレームを合成してパノラマ画像を形成する装置であ
って、 合成対象とする第1画像フレーム及び第2画像フレーム
のうち、第1画像フレームに複数の候補点検出領域を設
定し、それら各候補点検出領域から、それぞれ周囲の画
素との画素値の差が最も大きい画素を候補点として検出
する候補点検出手段と、 前記各候補点の中から、近傍所定範囲の画素値の分散及
び相互の距離を考慮した所定の規則に従って2つの基準
点を選択する基準点選択手段と、 選択された各基準点ごとに、その点の近傍所定範囲の画
像パターンと最もよく適合する画像パターンを近傍に持
つ点を、前記基準点に対応する対応点として前記第2画
像フレームから探索する対応点探索手段と、 互いに対応する前記基準点と前記対応点とが一致するよ
う前記第1画像フレームに対して前記第2画像フレーム
を位置合わせして合成する画像合成手段と、 を含む超音波パノラマ画像形成装置。
1. An apparatus for forming a panoramic image by synthesizing a plurality of image frames obtained by an ultrasonic diagnostic apparatus, wherein the first image frame of the first image frame and the second image frame to be synthesized is a first image frame. A plurality of candidate point detection areas are set in each of the candidate point detection areas, and a candidate point detection unit that detects a pixel having the largest difference in pixel value with surrounding pixels as a candidate point from each of the candidate point detection areas, and A reference point selecting unit that selects two reference points from the inside according to a predetermined rule that takes into consideration the variance of pixel values in a predetermined neighborhood range and the mutual distance, and a predetermined range near each of the selected reference points. Corresponding point searching means for searching from the second image frame a point having an image pattern that best matches the image pattern in the vicinity as a corresponding point corresponding to the reference point; Ultrasonic panoramic image forming apparatus including an image combining means for the reference point and the corresponding point is synthesized by aligning the second image frame with respect to the first image frame to match the.
【請求項2】 前記基準点選択手段の前記所定の規則
は、前記近傍所定範囲の画素値の分散が大きい候補点ほ
ど基準点に選択されやすくするものであることを特徴と
する請求項1記載の超音波パノラマ画像形成装置。
2. The predetermined rule of the reference point selection means is such that a candidate point having a larger variance of pixel values in the predetermined neighborhood range is more likely to be selected as a reference point. Ultrasonic panoramic image forming device.
【請求項3】 前記基準点選択手段の前記所定の規則
は、相互の距離が大きい候補点のペアほど基準点に選択
されやすくするものであることを特徴とする請求項1記
載の超音波パノラマ画像形成装置。
3. The ultrasonic panorama according to claim 1, wherein the predetermined rule of the reference point selection means makes a pair of candidate points having a large mutual distance easier to be selected as a reference point. Image forming apparatus.
【請求項4】 前記基準点選択手段は、前記近傍所定範
囲の画素値の分散が所定下限値より大きい候補点のう
ち、相互の距離が最も大きい2つの候補点を基準点とし
て選択することを特徴とする請求項1記載の超音波パノ
ラマ画像形成装置。
4. The reference point selecting means selects, as reference points, two candidate points having the largest mutual distance among the candidate points having a variance of pixel values in the neighboring predetermined range larger than a predetermined lower limit value. The ultrasonic panoramic image forming apparatus according to claim 1, wherein the ultrasonic panoramic image forming apparatus is provided.
【請求項5】 前記候補点検出手段は、前記第1画像フ
レームにおいて、皮膚層を表す領域と想定される所定範
囲を除いた範囲に、複数の前記候補点検出領域を設定す
ることを特徴とする請求項1記載の超音波パノラマ画像
形成装置。
5. The candidate point detection means sets a plurality of the candidate point detection areas in a range excluding a predetermined range assumed to be an area representing a skin layer in the first image frame. The ultrasonic panoramic image forming apparatus according to claim 1.
【請求項6】 前記候補点検出手段は、前記第1画像フ
レームと前記第2画像フレームとの間での画像化範囲の
想定最大移動量に基づき、前記第1画像フレームのうち
前記第2画像フレームから外れない範囲の中に複数の前
記候補点検出領域を設定することを特徴とする請求項1
記載の超音波パノラマ画像形成装置。
6. The candidate point detecting means, based on an assumed maximum movement amount of an imaging range between the first image frame and the second image frame, the second image of the first image frame. The plurality of candidate point detection areas are set within a range that does not deviate from a frame.
The ultrasonic panoramic image forming apparatus described.
【請求項7】 前記画像合成手段により画像合成が行わ
れるごとに、それまでの第2画像フレームを新たに第1
画像フレームとし、次に合成しようとする画像フレーム
を新たな第2画像フレームとすることで、逐次供給され
る画像フレームを1つの画像に合成可能としたことを特
徴とする請求項1記載の超音波パノラマ画像形成装置。
7. Each time the image composition is performed by the image composition means, a second image frame up to that point is newly added to the first image frame.
The superframe according to claim 1, wherein an image frame to be combined next is made a new second image frame so that the image frames sequentially supplied can be combined into one image. Sonic panoramic image forming apparatus.
JP2001279485A 2001-09-14 2001-09-14 Ultrasonic panoramic image forming device Expired - Fee Related JP4704630B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001279485A JP4704630B2 (en) 2001-09-14 2001-09-14 Ultrasonic panoramic image forming device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001279485A JP4704630B2 (en) 2001-09-14 2001-09-14 Ultrasonic panoramic image forming device

Publications (2)

Publication Number Publication Date
JP2003079620A true JP2003079620A (en) 2003-03-18
JP4704630B2 JP4704630B2 (en) 2011-06-15

Family

ID=19103670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001279485A Expired - Fee Related JP4704630B2 (en) 2001-09-14 2001-09-14 Ultrasonic panoramic image forming device

Country Status (1)

Country Link
JP (1) JP4704630B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006051360A (en) * 2004-08-13 2006-02-23 General Electric Co <Ge> Method and device for expanding ultrasonic image pick-up region
JP2007007426A (en) * 2005-07-01 2007-01-18 Medison Co Ltd Hierarchical motion estimation method and ultrasonic imaging apparatus using the same
JP2007122275A (en) * 2005-10-26 2007-05-17 Casio Comput Co Ltd Motion vector detection apparatus and program thereof
JP2008272087A (en) * 2007-04-26 2008-11-13 Toshiba Corp Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic image processing program
JP2009297072A (en) * 2008-06-10 2009-12-24 Toshiba Corp Ultrasonic diagnostic apparatus and medical image processing apparatus
JP2012125373A (en) * 2010-12-15 2012-07-05 Hitachi Aloka Medical Ltd Ultrasonic image processing apparatus
CN103024422A (en) * 2011-09-22 2013-04-03 富士施乐株式会社 Image processing apparatus and image processing method
JP2013135961A (en) * 2013-04-08 2013-07-11 Toshiba Corp Ultrasonic diagnosis apparatus and medical image processing device
JP2014083204A (en) * 2012-10-23 2014-05-12 Fujitsu Ltd Display processing program, display processing method, and display processing apparatus
US11382604B2 (en) 2017-01-18 2022-07-12 Furuno Electric Co., Ltd. Ultrasonic image system with synthesis of images of different ultrasonic waves received at respective positions of a probe

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03259672A (en) * 1990-03-09 1991-11-19 Sanyo Electric Co Ltd Blur correction device for moving picture
JPH07284014A (en) * 1995-02-15 1995-10-27 Olympus Optical Co Ltd Picture handling device
JPH08280688A (en) * 1995-03-31 1996-10-29 Siemens Medical Syst Inc Method and device to generate large composite ultrasonic wave image
JPH11284944A (en) * 1998-03-31 1999-10-15 Canon Inc Image processing method and apparatus
JP2000217815A (en) * 1999-01-28 2000-08-08 Hitachi Ltd Method and apparatus for synthesizing a panoramic image by synthesizing an ultrasonic image
JP2000229081A (en) * 1999-02-10 2000-08-22 Hitachi Medical Corp Ultrasonograph

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03259672A (en) * 1990-03-09 1991-11-19 Sanyo Electric Co Ltd Blur correction device for moving picture
JPH07284014A (en) * 1995-02-15 1995-10-27 Olympus Optical Co Ltd Picture handling device
JPH08280688A (en) * 1995-03-31 1996-10-29 Siemens Medical Syst Inc Method and device to generate large composite ultrasonic wave image
JPH11284944A (en) * 1998-03-31 1999-10-15 Canon Inc Image processing method and apparatus
JP2000217815A (en) * 1999-01-28 2000-08-08 Hitachi Ltd Method and apparatus for synthesizing a panoramic image by synthesizing an ultrasonic image
JP2000229081A (en) * 1999-02-10 2000-08-22 Hitachi Medical Corp Ultrasonograph

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006051360A (en) * 2004-08-13 2006-02-23 General Electric Co <Ge> Method and device for expanding ultrasonic image pick-up region
JP2007007426A (en) * 2005-07-01 2007-01-18 Medison Co Ltd Hierarchical motion estimation method and ultrasonic imaging apparatus using the same
US8320452B2 (en) 2005-10-26 2012-11-27 Casio Computer Co., Ltd. Imaging apparatus with motion vector detecting function
JP2007122275A (en) * 2005-10-26 2007-05-17 Casio Comput Co Ltd Motion vector detection apparatus and program thereof
JP2008272087A (en) * 2007-04-26 2008-11-13 Toshiba Corp Ultrasonic diagnostic apparatus, ultrasonic image processing apparatus, and ultrasonic image processing program
US8565504B2 (en) 2007-04-26 2013-10-22 Kabushiki Kaisha Toshiba Ultrasonic image processing apparatus and ultrasonic image processing method
JP2009297072A (en) * 2008-06-10 2009-12-24 Toshiba Corp Ultrasonic diagnostic apparatus and medical image processing apparatus
US8888704B2 (en) 2008-06-10 2014-11-18 Kabushiki Kaisha Toshiba Ultrasound imaging apparatus and method for displaying ultrasound image
US9005128B2 (en) 2008-06-10 2015-04-14 Kabushiki Kaisha Toshiba Ultrasound imaging apparatus and method for displaying ultrasound image
JP2012125373A (en) * 2010-12-15 2012-07-05 Hitachi Aloka Medical Ltd Ultrasonic image processing apparatus
CN103024422A (en) * 2011-09-22 2013-04-03 富士施乐株式会社 Image processing apparatus and image processing method
JP2014083204A (en) * 2012-10-23 2014-05-12 Fujitsu Ltd Display processing program, display processing method, and display processing apparatus
US10163529B2 (en) 2012-10-23 2018-12-25 Fujitsu Limited Display processing method and apparatus
JP2013135961A (en) * 2013-04-08 2013-07-11 Toshiba Corp Ultrasonic diagnosis apparatus and medical image processing device
US11382604B2 (en) 2017-01-18 2022-07-12 Furuno Electric Co., Ltd. Ultrasonic image system with synthesis of images of different ultrasonic waves received at respective positions of a probe

Also Published As

Publication number Publication date
JP4704630B2 (en) 2011-06-15

Similar Documents

Publication Publication Date Title
US9569818B2 (en) Ultrasonic image processing apparatus
CN102274042B (en) Image registration method, panoramic imaging method, ultrasonic imaging method and systems thereof
US10242450B2 (en) Coupled segmentation in 3D conventional ultrasound and contrast-enhanced ultrasound images
CN109069119B (en) 3D Image Synthesis for Ultrasound Fetal Imaging
JP5681623B2 (en) Ultrasound imaging of extended field of view with 2D array probe
CN100455266C (en) Wide-field imaging processing method
JP6689253B2 (en) Ultrasonic imaging device
US9672595B2 (en) Ultrasonic image processing apparatus
JPH1128211A (en) Three-dimensional imaging system and method for ultrasonic scattering medium
Kim et al. Mosaicing of acoustic camera images
JP4704630B2 (en) Ultrasonic panoramic image forming device
JP2007007426A (en) Hierarchical motion estimation method and ultrasonic imaging apparatus using the same
CN109580786B (en) Ultrasonic probe calibration method
CN112386282B (en) Ultrasonic automatic volume scanning imaging method and system
JP4693465B2 (en) Three-dimensional ultrasonic diagnostic apparatus and volume data display area setting method
US6306092B1 (en) Method and apparatus for calibrating rotational offsets in ultrasound transducer scans
US10765297B2 (en) Image processing apparatus, image processing method, and computer readable recording medium
JPH11318892A (en) Ultrasonography and ultrasonograph
JP6667676B2 (en) Ultrasonic imaging system, ultrasonic imaging apparatus, ultrasonic imaging method, and image synthesis program
JP7755352B2 (en) Method and system for cross-referencing two-dimensional (2D) ultrasound scans of tissue volumes
JP4537300B2 (en) Ultrasonic diagnostic equipment
Kim et al. Acoustic camera image mosaicing and super-resolution
CN116269475A (en) Method and system for real-time image acquisition
JP2000254123A (en) Ultrasoniograph
Gazda et al. echoGAN: Extending the field of view in Transthoracic Echocardiography through conditional GAN-based outpainting

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080611

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110223

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110310

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees