DE19819800A1 - Verfahren und Einrichtung zum automatischen Verbessern des Kontrastes in projizierten Ultraschallbildern - Google Patents
Verfahren und Einrichtung zum automatischen Verbessern des Kontrastes in projizierten UltraschallbildernInfo
- Publication number
- DE19819800A1 DE19819800A1 DE19819800A DE19819800A DE19819800A1 DE 19819800 A1 DE19819800 A1 DE 19819800A1 DE 19819800 A DE19819800 A DE 19819800A DE 19819800 A DE19819800 A DE 19819800A DE 19819800 A1 DE19819800 A1 DE 19819800A1
- Authority
- DE
- Germany
- Prior art keywords
- intensity
- pixel
- pixel intensity
- projected
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000002604 ultrasonography Methods 0.000 title claims description 18
- 238000002592 echocardiography Methods 0.000 claims abstract description 9
- 238000003860 storage Methods 0.000 claims abstract description 9
- 238000003384 imaging method Methods 0.000 claims abstract description 7
- 238000013507 mapping Methods 0.000 claims description 32
- 238000000034 method Methods 0.000 claims description 29
- 230000009466 transformation Effects 0.000 claims description 7
- 230000001131 transforming effect Effects 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 5
- 238000009877 rendering Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 claims description 2
- 238000001514 detection method Methods 0.000 claims 2
- 230000015654 memory Effects 0.000 description 39
- 238000012285 ultrasound imaging Methods 0.000 description 12
- 230000000875 corresponding effect Effects 0.000 description 11
- 210000003484 anatomy Anatomy 0.000 description 5
- 238000013500 data storage Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 210000004204 blood vessel Anatomy 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 239000000523 sample Substances 0.000 description 4
- 238000000844 transformation Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000005266 casting Methods 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 235000010678 Paulownia tomentosa Nutrition 0.000 description 1
- 240000002834 Paulownia tomentosa Species 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000000601 blood cell Anatomy 0.000 description 1
- 210000005242 cardiac chamber Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/88—Sonar systems specially adapted for specific applications
- G01S15/89—Sonar systems specially adapted for specific applications for mapping or imaging
- G01S15/8906—Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
- G01S15/8993—Three dimensional imaging systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52017—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
- G01S7/52023—Details of receivers
- G01S7/52034—Data rate converters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52017—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
- G01S7/52053—Display arrangements
- G01S7/52057—Cathode ray tube displays
- G01S7/5206—Two-dimensional coordinated display of distance and direction; B-scan display
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52017—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
- G01S7/52053—Display arrangements
- G01S7/52057—Cathode ray tube displays
- G01S7/52073—Production of cursor lines, markers or indicia by electronic means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52017—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
- G01S7/52046—Techniques for image enhancement involving transmitter or receiver
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52017—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
- G01S7/52053—Display arrangements
- G01S7/52057—Cathode ray tube displays
- G01S7/52071—Multicolour displays; using colour coding; Optimising colour or information content in displays, e.g. parametric imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/52—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
- G01S7/52017—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
- G01S7/52053—Display arrangements
- G01S7/52057—Cathode ray tube displays
- G01S7/52074—Composite displays, e.g. split-screen displays; Combination of multiple images or of images and alphanumeric tabular information
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S128/00—Surgery
- Y10S128/916—Ultrasound 3-D imaging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Description
Die Erfindung bezieht sich allgemein auf Ultraschall-Bild
gebung der menschlichen Anatomie zum Zweck der medizinischen
Untersuchung. Insbesondere bezieht sich die Erfindung auf ein
Verfahren zur bildlichen Darstellung der menschlichen Anato
mie durch Erfassen der Intensität von Ultraschall-Echos, die
von dem abgetasteten bzw. gescanten Volumen in einem mensch
lichen Körper reflektiert werden.
Die üblichsten Modi der diagnostischen Ultraschall-Bildgebung
umfassen B- und M-Modes (benutzt zur Darstellung interner,
physikalischer Struktur), Doppler und Farbströmung (die
letzten zwei werden hauptsächlich dazu verwendet, Strömungs-Charakter
istiken, wie beispielsweise in Blutgefäßen, darzu
stellen). Bei der üblichen B-Mode-Bildgebung erzeugen Ultra
schall-Scanner Bilder, in denen die Helligkeit von einem
Pixel auf der Intensität von einer Echoantwort beruht. Die
Amplitude von den reflektierten Wellen wird dazu verwendet,
schwarze und weiße Bilder von den Geweben zu erzeugen.
Die vorliegende Erfindung ist in einem Ultraschall-Bild
gebungssystem verkörpert, das aus vier hauptsächlichen Unter
systemen besteht: einem Bündelformer 2 (vgl. Fig. 1), einem
Prozessor-Subsystem 4, einer Abtastkonverter/Displaysteuerung
6 sowie einer Hauptsteuerung 8. Die Systemsteuerung erfolgt
zentral in der Hauptsteuerung 8, welche die Bedienereingaben
über eine (nicht gezeigte) Bedienerschnittstelle empfängt und
ihrerseits die verschiedenen Untersysteme steuert. Die Haupt
steuerung erzeugt ebenfalls für das System die Zeit- und
Steuersignale, die über einen Systemsteuerbus 10 sowie einen
(nicht gezeigten) Scan- bzw. Abtaststeuerbus verteilt werden.
Der Hauptdatenpfad beginnt mit den digitalisierten HF Eingän
gen von dem Wandler an den Strahl- bzw. Bündelformer. Der
Bündelformer gibt zwei aufsummierte, digitale Empfangsbündel
im Basisband aus. Die Basisbanddaten werden als Eingang an
den B-Mode-Prozessor 4A und den Farbströmungsprozessor 4B
gegeben, wo sie entsprechend dem Datenerfassungsmodus prozes
siert und als prozessierte akustische Vektor- (Bündel-)Daten
an den Abtastkonverter/Displayprozessor 6 ausgegeben werden.
Der Abtastkonverter/Displayprozessor 6 nimmt die prozessier
ten akustischen Daten auf und gibt die Video-Displaysignale
für die Abbildung in einem Rastercan-Format an einen Farbmo
nitor 12 aus. Die Abtastkonverter/Displaysteuerung 6 forma
tiert weiterhin in Zusammenarbeit mit der Hauptsteuerung 8
viele Bilder zum Display, für Display-Anmerkungen, grafische
Auflagen (overlays) sowie für eine Wiedergabe von Filmschlei
fen und aufgezeichneten Zeitliniendaten.
Der B-Mode-Prozessor 4A konvertiert die Basisbanddaten von
dem Bündelformer in eine logarithmisch komprimierte Version
der Signaleinhüllenden. Die B-Funktion bildet die zeitvaria
ble Amplitude der Einhüllenden des Signals als eine Grauskala
unter Verwendung eines 8-Bit Ausgangs für jedes Pixel ab. Die
Einhüllende eines Basisbandsignals ist die Größe des Vektors,
der die Basisbanddaten repräsentiert.
Die Frequenz der von der Innenseite von Blutgefäßen, Herzkam
mern usw. reflektierten Schallwellen wird proportional zu der
Geschwindigkeit der Blutzellen verschoben, und zwar in posi
tiver Richtung für sich auf den Wandler zu bewegende Zellen
und in negativer Richtung für die sich davon weg bewegende
Zellen. Der Farbströmungs(CF)-Prozessor 4B wird benutzt, um
eine zweidimensionale Echtzeit-Abbildung der Blutgeschwindig
keit in der Abbildungsebene vorzusehen.
Die akustischen Zeilenspeicher 14A und 14B der Abtastkonver
ter/Displaysteuerung 6 nehmen jeweils die von den Prozessoren
4A und 4B prozessierten digitalen Daten auf und führen die
Koordinatentransformationen der Farbströmungs- und Intensi
tätsdaten vom Polarkoordinaten- (R-θ) Sektorformat oder vom
Cartesischen linearen Koordinatenfeld zu geeignet skalierten
Display-Pixeldaten durch, die im X-Y Displayspeicher 18
gespeichert werden. Im B-Mode werden die Intensitätsdaten im
X-Y Displayspeicher 18 gespeichert, wobei jede Adresse drei
Pixel zu 8 Bit speichert. Alternativ werden im Farbströmungs
modus die Farbströmungsdaten wie folgt im Speicher gespei
chert: Intensitätsdaten (8 Bits), Geschwindigkeits- oder
Energiedaten (8 Bits) sowie Turbulenzdaten (4 Bits).
Eine Vielzahl von aufeinanderfolgenden (Voll-)Bildern
(Frames) von Farbströmungs- oder B-Mode-Daten werden im
Filmspeicher auf einer First-In/First-Out (FIFO) Basis ge
speichert. Der Filmspeicher wirkt als ein im Hintergrund
laufender ringförmiger Bildpufferspeicher, der kontinuierlich
auf Bilddaten zugreift, die in Echtzeit für den Benutzer zur
Darstellung gebracht werden. Wenn der Benutzer das System
"einfriert", hat er die Möglichkeit, zuvor im Filmspeicher
eingefangene Bilddaten anzuschauen. Die Grafikdaten für die
Herstellung von grafischen Auflagen auf dem dargestellten
Bild werden erzeugt und gespeichert in dem Zeitlini
en/Grafikprozessor und Displayspeicher 20. Der Videoprozessor
22 schaltet im Multiplexbetrieb zwischen den Grafikdaten, den
Bilddaten sowie den Zeitliniendaten hin und her, um den
endgültigen Videoausgang in einem Rasterabtastformat auf dem
Videomonitor 12 zu erzeugen. Zusätzlich sorgt er für ver
schiedene Grauskala- und Farbkartierungen (maps) sowie für
die Verknüpfung der Grauskala- und Farbbilder.
Das konventionelle Ultraschall-Bildgebungssystem sammelt
B-Mode- oder Farbströmungs-Mode-Bilder in einem Filmspeicher 24
auf einer kontinuierlichen Basis. Der Filmspeicher 24 stellt
einen residenten digitalen Bildspeicher für Einzelbildbe
trachtung und für Mehrfachbildschleifenbetrachtung sowie
verschiedene Steuerungsfunktionen zur Verfügung. Das während
der Einzelbild-Filmwiedergabe dargestellte interessierende
Gebiet ist dabei dasjenige, das während der entsprechenden
Bilderfassung benutzt wurde. Der Filmspeicher arbeitet eben
falls als ein Puffer für die Übertragung von Bildern zu
digitalen Archivierungsgeräten über die Hauptsteuerung 8.
Konventionelle Ultraschall-Scanner erzeugen zweidimensionale
B-Mode-Bilder, bei denen die Helligkeit eines Pixels auf der
Intensität der Echorückkehr basiert. Zweidimensionale Ultra
schall-Bilder sind oftmals schwer zu interpretieren aufgrund
des Unvermögens des Beobachters, sich die zweidimensionale
Darstellung der gerade abgetasteten Anatomie zu veranschauli
chen. Wird jedoch die Ultraschallsonde über einen interessie
renden Bereich geführt und werden dabei zweidimensionale
Abbildungen zur Formung eines dreidimensionalen Volumens
akkumuliert, dann läßt sich die Anatomie viel leichter sowohl
für den geübten als auch für den ungeübten Betrachter vor
stellen. Üblicherweise werden dreidimensionale Abbildungen
von B-Mode-Daten und Farbströmungs-Geschwindigkeits- oder
Energie(power)-Daten separat zur Darstellung gebracht. Es
gibt jedoch viele Gelegenheiten, bei denen beim Darstellen
der Geschwindigkeits- oder Energiedaten allein der Betrachter
ein Gefühl für die gerade abgebildete Anatomie verliert.
Durch eine Kombination von Intensitäts-Projektionen mit
Projektionen von Farbströmungsgeschwindigkeit- oder Energie
daten ist es möglich, ein Gefühl für die Anatomie beizube
halten und gleichzeitig die Geschwindigkeit oder Energie
abzubilden.
Um die beste Bildqualität zu erhalten, wenn dreidimensionale
Rekonstruktionen von Ultraschallbildern ausgeführt werden,
ist es aufgrund der großen Änderung im Kontrast von Ultra
schallbildern notwendig, den Kontrast des rekonstruierten
Bildes einzustellen. Dies geschieht üblicherweise dadurch,
daß der Benutzer interaktiv den Kontrast und die Helligkeit
des Bildes einstellen kann. Dieses Verfahren ist zeitraubend
und erfordert einen Benutzereingang, der auf Ultraschall-
Bildgebungseinrichtungen normalerweise nicht vorgesehen ist.
Weiterhin können der Kontrast und die Helligkeit des wieder
gegebenen Bildes von den Quellbildern beträchtlich abweichen,
die dazu verwendet werden, die dreidimensionale Projektion zu
konstruieren. Wenn die originalen und wiedergegebenen Bilder
gleichzeitig durch den gleichen Display-Prozessor betrachtet
werden, kann es unmöglich sein, für beide Bilder akzeptable
Helligkeits- und Kontrastwerte zu erzielen.
Die vorliegende Erfindung gibt ein Verfahren sowie eine
Einrichtung an zum automatischen Einstellen des Kontrastes in
dreidimensionalen Ultraschallbildern, um einen optimalen
Kontrast zu erzielen. Dies wird dadurch erreicht, daß automa
tisch die Helligkeits- und Kontrastwerte von dem rekonstru
ierten Bild auf der Basis der Werte der rekonstruierten oder
Quellbilder eingestellt werden, um die optimalen Werte für
das rekonstruierte Bild zu erzielen. Diese Technik gestattet,
daß sowohl die Quell- als auch rekonstruierten Bilder in den
gleichen Helligkeits- und Kontrastbereichen dargestellt
werden.
Die Erfindung wird in einem Ultraschall-Bildgebungssystem
verwendet, das B-Mode-Bilder in einem Filmspeicher auf einer
kontinuierlichen Basis oder auf ein externes Trigger-Ereignis
hin sammelt, d. h. für eine Vielzahl von Schnitten bzw. Schei
ben (Slices). Die Daten von einem jeweiligen interessierenden
Bereich bzw. Gebiet für jeden Schnitt oder jedes Quellbild
werden zu einer Hauptsteuerung gesandt, wobei derartige Daten
ein interessierendes Volumen bilden. Die Hauptsteuerung führt
einen Algorithmus aus, der die Pixelintensitätsdaten in dem
interessierenden Volumen iterativ auf mehrere gedrehte Bilde
benen projiziert, und zwar unter Verwendung einer Strahl
wurf (ray-casting) -Technik. Die projizierten Bilder werden
schließlich als getrennte Vollbilder (Frames) in dem Film
speicher gespeichert, wobei jedes Vollbild (Frame) auf das
letzte Hintergrund-Vollbild(Frame) überlagert bzw. superposi
tioniert ist. Bevor jedoch die projizierten Bilder in dem
Filmspeicher gespeichert werden, wird der Kontrast von den
Pixelintensitätsdaten, die diese projizierten Bilder aufbau
en, eingestellt.
Erfindungsgemäß wird der Kontrast der projizierten Bilder
dadurch eingestellt, daß eine eins-zu-eins-Kartierung
(Mapping) der nicht-eingestellten Pixelintensitätsdaten in
eingestellte Pixelintensitätsdaten erzeugt wird. Die Kartie
rung wird erzeugt auf der Basis von Pixelintensitätsdaten von
entweder einem Quellbild (Quellframe) oder einem projizierten
Bild. Im ersten Fall wird die Kartierung vor der Projektion
generiert; im zweiten Fall wird die Kartierung nach der
Projektion generiert. Die Kartierung wird auf jedes proji
zierte Bild angewendet, um für eine Kontrasteinstellung für
eine bildliche Darstellung zu sorgen.
Um die Kontrasteinstellungs-Kartierung zu generieren, kompi
liert die Hauptsteuerung ein Säulendiagramm bzw. Histogramm
von der Anzahl von Pixeln mit einer Intensität innerhalb
jeder von einer Vielzahl von vorgeschriebenen Intensitätsbe
reichen oder -rahmen (Bins) für einen oder mehrere Schnitte
(Slices) von Quelldaten oder für ein oder mehrere projizierte
Bilder (z. B. die 0° Projektion). Zur gleichen Zeit ermittelt
die Hauptsteuerung die maximale Pixelintensität in dem Quell- oder
dem projizierten Bild. Indem mit dem Bereich oder Rah
men, der die maximale Anzahl von Pixeln enthält, begonnen
wird und die übrigen Bereiche oder Rahmen in der Reihenfolge
abnehmender Pixelzahl hinzuaddiert werden, werden die Pixel
zahlen in jedem Intensitätsbereich oder -rahmen aufaddiert,
bis ein vorbestimmter Prozentsatz der Gesamtzahl von Pixeln
erreicht ist. Wenn die gezählten Bereiche oder Rahmen mei
stens Pixel mit relativ hoher Intensität enthalten, wird die
untere Grenze des Bereiches oder Rahmens mit kleinster Inten
sität, die in der Zählung enthalten ist, der Pixelintensi
täts-Schwellenwert. Wenn umgekehrt die gezählten Bereiche
oder Rahmen meistens Pixel mit relativ kleiner Intensität
enthalten, wird die obere Grenze des die höchste Intensität
aufweisenden Bereiches oder Rahmens, der in der Zählung
enthalten ist, der Pixelintensitäts-Schwellenwert. In jedem
Fall wird dann eine eins-zu eins-Kartierung (Mapping) er
zeugt, so daß der Bereich von Intensitätswerten oberhalb
(oder unterhalb) des Pixelintensitäts-Schwellenwertes linear
korreliert wird zu einem expandierten Displayintensitäts-Werte
bereich von 0 bis 255.
In dem erfindungsgemäßen Verfahren wird der Kontrast von
jedem projizierten Bild automatisch eingestellt, wobei die
Kartierung (Mapping) verwendet wird, die aus dem Pixelinten
sitäts-Histogramm generiert ist, bevor die Hauptsteuerung
dieses projizierte Bild in den Filmspeicher schreibt. Genauer
gesagt, die projizierten Pixeldaten mit Intensitätswerten
innerhalb des Bereiches, der den Bereichen oder Rahmen (Bins)
entspricht, die in der Histogramm-Zählung enthalten sind,
d. h. in dem Kartierungseingabebereich, werden bezüglich des
Kontrastes eingestellt, indem jeder Intensitätswert in den
projizierten Pixeldaten in den entsprechenden Displayintensi
tätswert transformiert wird, der durch die eins-zu-eins-Kartierung
gebildet wird. Die Pixeldaten mit Intensitätswer
ten außerhalb des Kartierungseingabebereiches werden aussor
tiert. Indem also der Kontrast der Pixelintensitätsdaten von
höchstem Interesse vergrößert wird und die Pixelintensitäts
daten mit geringstem Interesse aussortiert werden, wird jedes
projizierte Bild zu dem gewünschten Helligkeits- und Kon
trastbereich oberhalb oder unterhalb des Pixelschwellenwertes
in Abhängigkeit von dem beabsichtigten Ergebnis kartiert.
Die Erfindung wird im folgenden anhand von Ausführungsbei
spielen unter Zuhilfenahme der Zeichnungen näher erläutert.
Es zeigen:
Fig. 1 ein Blockschaltbild, das die hauptsächlichen funktio
nalen Subsysteme innerhalb eines Echtzeit-Ultraschall-Bild
gebungssystems zeigt;
Fig. 2 ein Blockschaltbild der Einrichtung zur Rekonstruktion
von Bilder (Frames) enthaltend aufeinanderfolgende volumetri
sche Projektionen von Intensitäts- und Geschwindigkeits- oder
Energiepixeldaten gemäß einer bevorzugten Ausführungsform der
vorliegenden Erfindung;
Fig. 3 ein Flußdiagramm, das die Schritte eines Algorithmus
für die Rekonstruktion der Bilder (Frames) unter Einschluß
von aufeinanderfolgenden volumetrischen Projektionen von
Intensitäts- und Geschwindigkeits- oder Energiepixeldaten
gemäß der bevorzugten Ausführung der vorliegenden Erfindung
zeigt;
Fig. 4 eine schematische Darstellung des abgetasteten inter
essierenden Objektvolumens, ein zugeordnetes Datenvolumen
sowie eine Bildprojektionsebene, die in die volumetrische
Wiedergabe einer umgekehrten Strahlwurfprojektion gemäß dem
Stand der Technik miteinbezogen ist;
Fig. 5 eine schematische Darstellung, die ein Paar von geome
trischen zweidimensionalen Konfigurationen entsprechend
gleichen Ansichten von Objekt- und Datenvolumen zeigt, und
die nützlich ist bei der Definition von notwendigen Skalier
konstanten bei der dreidimensionalen Ultraschall-Bildgebung;
Fig. 6 ein schematisches Blockschaltbild einer Einrichtung
zur Lieferung einer Projektion mit maximaler Intensität bei
der dreidimensionalen Ultraschall-Bildgebung.
Fig. 7A ein Säulendiagramm ist, das die Population von Pixeln
mit Intensitätswerten in vorbestimmten Bereichen für ein Bild
mit Pixeln hoher Intensität zeigt;
Fig. 7B eine Kontrasteinstellungskartierung von den eine hohe
Intensität aufweisenden Pixeldaten, die in Fig. 7A darge
stellt sind, gemäß dem bevorzugten Ausführungsbeispiel der
Erfindung ist;
Fig. 8A ein Säulendiagramm ist, das die Population von Pixeln
mit Intensitätswerten in vorbestimmten Bereichen für ein Bild
mit Pixeln geringer Intensität zeigt;
Fig. 8B eine Kontrasteinstellungskartierung von den eine
geringe Intensität aufweisenden Pixeldaten, die in Fig. 8A
dargestellt sind, gemäß dem bevorzugten Ausführungsbeispiel
der Erfindung ist.
Gemäß Fig. 2 enthält die Hauptsteuerung 8 eine zentrale
Verarbeitungseinheit (CPU) 42 und einen Speicher 44 mit
wahlfreiem Zugriff. Die CPU 42 weist einen darin angeordneten
Nur-Lese-Speicher (ROM) zum Speichern der Routinen auf, die
für die Umsetzung (Transformation) des gewonnenen Volumens
von Intensitäts- oder Farbströmungsmodedaten in eine Vielzahl
von dreidimensionalen unter verschiedenen Winkeln genommenen
Projektionsbildern benutzt werden. Die CPU 42 steuert den
XY-Speicher 18 und den Filmspeicher 24 über den Systemsteuerbus
10. Insbesondere steuert die CPU 42 den Datenfluß von dem
XY-Speicher 18 zum Videoprozessor 22 und zum Filmspeicher 24
sowie von dem Filmspeicher zum Videoprozessor 22 und zur CPU
42 selbst. Wenn das Ultraschall-Bildgebungssystem im
Farbströmungsmodus arbeitet, wird jedes (Voll-)Bild (frame)
von Farbströmungsdaten, das einen von mehreren Scans oder
Schnitten (Slices) durch das untersuchte Objekt repräsen
tiert, in dem XY-Speicher 18 gespeichert und im nächsten
Zyklus zum Videoprozessor 22 sowie zum Filmspeicher 24 über
tragen. Ein das abgetastete Objektvolumen repräsentierender
Stapel von Bildern wird im Abschnitt 24A des Filmspeichers 24
gespeichert. Während der Initialisierung (vgl. Schritt 26 in
Fig. 3) holt die CPU 42 vom Abschnitt 24A des Filmspeichers
lediglich die einem interessierenden Objektvolumen entspre
chenden Farbströmungsdaten. Dies wird bewerkstelligt, indem
man lediglich die Farbströmungsdaten in einem interessieren
den Gebiet von jedem gespeicherten Bild holt, das von irgend
einem Scan gewonnen wurde, der das interessierende Volumen
geschnitten hatte. Mit anderen Worten, die dem interessieren
den Gebiet entsprechenden Farbströmungsdaten von jedem einen
Bild eines Stapels von aufeinanderfolgenden Bildern bilden
ein interessierendes Quelldatenvolumen.
Wie aus Fig. 3 zu ersehen ist, werden die Intensitätsdaten in
dem dem interessierenden Objektvolumen entsprechenden Pixel
datensatz vor der Projektion als Option gefiltert (Schritt
28), um Fleckenrauschen (Speckle-Rauschen) zu glätten und
Artefakte zu reduzieren. Dies vermeidet während der Projekti
on den Verlust von Daten aufgrund von Fleckenrauschen. Bei
spielsweise erzeugen Blutgefäße weniger Echo als das umgeben
de Gewebe. Gefäße können deshalb unter Einsatz von Projektio
nen mit minimaler Intensität abgebildet werden. Alternativ
werden im Umkehrvideo/Minimum-Mode die Intensitätsdaten
invertiert, um die Gefäße hell anstatt dunkel zu machen. Die
Gefäße können dann unter Einsatz von Projektionen mit maxima
ler Intensität abgebildet werden. Um die Auswahl von maxima
len Intensitäten, die helle Flecken im Gegensatz zu den
gewünschten Pixeldaten sind, zu verhindern, kann vor der
Projektion ein Filter zur Beseitigung solcher hellen Fleckin
tensitäten benutzt werden. Das aus dem Filmspeicher 24 (vgl.
Fig. 2) geholte Quelldatenvolumen kann von der CPU 42 gefil
tert werden, indem man beispielsweise ein 3×3 Faltungsfil
ter mit einem 111 141 111 Kernel benutzt, d. h. das zentrale
Pixel der Intensitätsdaten in jedem 3×3 Pixelarray in jedem
Schnitt oder Bild (Frame) wird ersetzt durch einen Intensi
tätswert, der proportional ist zu der Summe aus dem vierfa
chen Wert des zentralen Pixels plus der Summe aus den Werten
der acht dieses Pixel umgebenden Pixel. Das gefilterte Quell
datenvolumen wird sodann im Speicher 44 abgespeichert
(Schritt 30). In ähnlicher Weise kann ein Faltungsfilter
benutzt werden, um schwarze Löcher in einem Bild vor der
Projektion mit minimaler Intensität zu entfernen.
Als nächstes führt die CPU 42 unter Verwendung des im
US-Patent No. 5,226,113 beschriebenen Strahlwurf-Algorithmus
(ray casting algorithm) eine Reihe von Transformationen
durch. Die aufeinanderfolgenden Transformationen repräsentie
ren Projektionen mit maximaler, minimaler oder durchschnitt
licher Intensität, Geschwindigkeits- oder Energieprojektio
nen, die unter winkelmäßigen Inkrementen, beispielsweise in
Intervallen von 10°, innerhalb eines Winkelbereichs, z. B. von
+90° bis -90°, vorgenommen werden. Die Winkelinkremente
müssen jedoch nicht 10° sein; auch ist die Erfindung nicht
auf einen bestimmten Winkelbereich begrenzt.
In Übereinstimmung mit der bei der vorliegenden Erfindung
angewandten Strahlwurftechnik werden die volumetrisch wieder
gegebenen Projektionsbilder von einem Sample bzw. einer Probe
50 (vgl. Fig. 4) unter irgendeinem willkürlichen Betrach
tungswinkel zur Anzeige gebracht, z. B. einem sphärischen
Projektionswinkel, der durch die Winkelparameter (θ, Φ)
bezeichnet wird, wobei θ der Winkel ist, den eine Verlänge
rung 58' eines Betrachtungsstrahls 58 auf der X-Y Ebene
bildet, und wobei Φ der Winkel des Strahls 58 bezogen auf die
Verlängerung 58' ist, und zwar beim Scannen eines Objektvolu
mens 52 mittels eines Ultraschallwandlers. Das Samplevolumen
52 wird in einer derartigen Weise abgetastet, daß man eine
Folge von geschichteten benachbarten Schnitten (slices) oder
Scheiben OS1, OS2 . . ., OSk erzeugt, von denen jede dieselbe
Anzahl von Objektvolumenelementen (voxels) OV enthält. Jedes
Voxel besitzt ein rechteckiges Profil in der Scheibenebene
(z. B. in der X-Y Ebene); während die komplementären Seiten
von gleicher Länge S sein können, so daß dieses Profil ein
Quadrat sein kann, ist die Scheibendicke T im allgemeinen
nicht gleich mit der Länge von jeder Seite. Somit enthält der
erste Objektschnitt OS1 eine erste Anzahl von Objektvoxel
OVij,1, wobei i und j die jeweiligen Positionen des Voxels auf
der X-Achse und auf der Y-Achse sind. In gleicher Weise
enthält der zweite Objektschnitt Os2 Objektvoxel OVij,2. Ein
willkürlicher Objektschnitt OSk enthält Voxel OVij,k, wobei k
die Position dieses Voxels auf der Z-Achse bedeutet.
Jedes Objektvoxel OVij,k wird analysiert und sein Datenwert
(Intensität, Geschwindigkeit oder Energie) wird in ein ent
sprechendes Datenvoxel DVij,k eines Datenvolumens 54 plaziert.
Das Datenvolumen 54 ist ein einfaches kubisches i, j, k
Gitter, obwohl die Dicke eines jeden Objektschnitts OSk und
jede Flächengröße eines Objektvoxels (die Größe des Voxels in
der X-Y Ebene) im allgemeinen nicht dieselbe sein werden. Das
bedeutet, es kann nicht nur das Objektvolumen unterschiedli
che Dimensionen X, Y und Z für jedes Voxel aufweisen, sondern
es braucht auch die insgesamte Anzahl von Voxel in irgendei
ner Dimension nicht dieselbe zu sein. Beispielsweise kann ein
typischer dreidimensionaler Ultraschall-Scan jeden Schnitt
mit einer 256×256 Voxel enthaltenden Matrix liefern und 128
Schnitte betreffen.
Gemäß einer von der CPU 42 angewandten bekannten Technik wird
ein Bild des Objekts 50 projiziert (Schritt 34 in Fig. 3)
durch Projektion eines Strahls von einem Gitterpunkt im
Datenvoxel DVij,k in Richtung auf die Bildebene 56. Der Ein
fachheit halber kann der Gitterpunkt beispielsweise die am
nächsten an dem Datenvolumenursprung liegende Datenvoxelspit
ze sein. Der Projektionsstrahl 62 tritt aus dem Datenvolumen
54 unter einem Projektionswinkel mit sphärischen Winkelpara
metern (α, β) aus, die aus den sphärischen Winkelparametern
(θ, Φ) transformiert wurden, unter denen das Objektvolumen 52
betrachtet wird. Diese beiden Winkel sind nicht gleich, und
zwar aufgrund der geometrischen Verzerrung, die durch die
Benutzung eines kubischen Datenvolumens 54 zusammen mit einem
nicht-kubischen Objektvolumen 52 verursacht wird. Der proji
zierte Strahl 62 weist jedoch eine Verlängerung 62' in der
x-y Ebene auf, die einen Winkel α mit Bezug auf die x
Achse des Datenvolumens bildet, und der Strahl 62 bildet
einen Winkel β mit der Z Achse. Somit werden die Winkel α und
β bestimmt durch einen (nachfolgend zu beschreibenden) Rota
tionsprozeß, um der Betrachtung des Objektvolumens 52 unter
dem gewünschten Betrachtungswinkel (θ, Φ) zu entsprechen
(unter der Annahme eines Betriebs mit sphärischen Koordina
ten). Jeder der Strahlen 62 wird von dem Voxel-Gitterpunkt
des Datenvolumens in Richtung auf die Bildebene projiziert.
Obwohl alle Strahlen 62 auf irgendeinen Bereich der Bildebene
auftreffen, wird nur den in das betrachtete Bildebenenpixel
60a fallenden Strahlen erlaubt, zu den Daten für dieses
Bildebenenpixel beizutragen. Hat man somit einen Teil des
Objektvolumens 52 zur Betrachtung ausgewählt sowie einen
Betrachtungswinkel (θ, Φ), unter dem dieses ausgewählte
Objektvolumen betrachtet werden soll, wird der Datenwert in
jedem Voxel des entsprechenden Teils von dem Datenvolumen
unter einem Winkel (α, β) (entsprechend der Betrachtung des
verzerrten Datenvolumens mit Bezug auf das Objektvolumen) in
Richtung auf die Bildebene 56 projiziert. Der Datenwert in
einem ersten Voxel (zum Beispiel Voxel DVi,1,k), wird somit in
Übereinstimmung mit den gewählten Werten θ und Φ entlang dem
Strahl 62a rückprojiziert. Dieser Strahl 62a trifft bei einer
Position 64a innerhalb des Pixels 60a auf die Bildebene 56
auf, und weil dies der erste auf dieses Pixel auftreffende
Strahl ist, wird der Intensitäts-, Geschwindigkeits- oder
Energiewert des auftreffenden Strahls dem gewünschten Pixel
60a zugeteilt (bzw. darin gespeichert). Das nächste Voxel in
dem Datenvolumen (z. B. Voxel DVi,2,k) hat seinen zugehörigen
Strahl 62b unter derselben winkelmäßigen (α, β) Konfiguration
vom Voxel-Gitterpunkt projiziert, und seine Position 64b auf
der Bildebene 56 wird festgehalten. Unter der Annahme, daß
diese Auftreffposition 64b im gewünschten Pixel 60a liegt,
wird der zweite projizierte Wert (für eine Maximalpixelpro
jektion) mit dem nun gespeicherten ersten Wert verglichen,
und es wird der größere Wert im Speicher für das Pixel 60a
plaziert. Es wird verständlich sein, daß für eine Projektion
mit einem Durchschnittswert der Wert eines laufenden proji
zierten Datenvoxels zu der bereits gespeicherten Summe für
das Bildfeldpixel (image panel pixel), auf das der Projekti
onsstrahl auftrifft, hinzuaddiert wird, und die Summe
schließlich durch eine gezählte Anzahl von solchen auftref
fenden Strahlen für dieses Pixel geteilt wird. Da jedes Voxel
in dem ausgewählten Datenvolumen sequentiell eingegeben und
in Richtung auf die Bildebene 56 projiziert wird, wird
schließlich ein Datenvolumenvoxel (z. B. Voxel DVi,3,k) ent
lang seinem zugehörigen Strahl 62p projiziert und trifft
nicht innerhalb des gewünschten Pixels 60a auf, so daß sein
Datenwert (z. B. die Intensität) nicht mit dem gegenwärtig für
das Pixel 60a gespeicherten Datenwert verglichen wird. Es
wird nun für diese Projektion von Daten bei dem bestimmten
(θ, Φ) dreidimensionalen Betrachtungswinkel der maximale
Datenwert für das Pixel 60a festgelegt. Tatsächlich weist der
Strahl 62p jedoch einen Auftreffpunkt 64p auf, der in ein
anderes Pixel (z. B. Pixel 60b) der Bildebene fällt; er wird
mit dem darin gespeicherten Datenwert verglichen und der nach
dem Vergleich sich ergebende größere Wert wird in den Spei
cher für dieses Pixel zurückgeführt. Alle Datenwerte werden
auf Null zurückgesetzt, wenn eine neue Projektion erfolgen
soll. Somit wird jedes der Pixel der Bildebene beim Start
einer Bildprojektionsprozedur rückgesetzt, und alle Datenvo
lumenvoxel (in dem gesamten Raum oder in dem ausgewählten
Teil, wie durch den Teil des ausgewählten Objektvolumens 52
festgelegt) werden einzeln und sequentiell abgetastet. Der
Datenwert in jeden Datenvoxel DV wird durch einen zugeordne
ten Strahl 62 so projiziert, daß er in einem Pixel 60 davon
auf die Bildebene 56 auftrifft, wobei der Maximalwert in
jedem Pixel mit dem gegenwärtigen Wert des strahlprojizierten
Datenvolumenvoxels verglichen wird, um den größeren davon zu
bestimmen, welcher größere Wert sodann als Teil des Maximal
wertbildes gespeichert wird. In der Praxis wird für eine
maximale Pixelprojektion der gespeicherte Maximalwert ledig
lich dann verändert, wenn der neuerliche Wert des projizier
ten Datenvoxels größer ist als der bereits für das Bildebe
nenpixel gespeicherte Datenwert, auf den der neuerliche
Projektionsstrahl auftrifft.
Gemäß einem anderen Aspekt der obigen Technik wird die Daten
projektion (im Schritt 36 in Figur. 3) skaliert und es wird
eine etwaige Anisotropie zwischen dem Objektvolumen und der
Bildebene durch lediglich einen einzigen Satz von Berechnun
gen beseitigt, nachdem die Rückprojektion abgeschlossen ist.
Es wird nun auf Fig. 5 Bezug genommen. Da es sich bei dem
Objektvolumen 52 um ein reales Volumen handelt, während es
sich bei dem Datenvolumen 54 um ein abstraktes Konzept han
delt, ist es nötig, den Betrag der Verzerrung der Projekti
onsdaten aufgrund der Darstellung des kubischen Datenvolumen
gitters 54 unter einem unterschiedlichen Winkel γ in einer
ersten Ebene zu bestimmen und sodann den Winkel ψ, unter dem
eine willkürliche Betrachtungsrichtung 66 mit Bezug sowohl
auf das Objektvolumen 52 als auch auf das Datenvolumen 54
positioniert wird. Die offenbaren Dimensionen von jedem Voxel
werden sich in dem Maße ändern, wie sich die effektiven
Erhebungswinkel ψ und γ ändern. Wenn das Aspektverhältnis A
(definiert als das Verhältnis der tatsächlichen Scheibendicke
T im Objektvolumen 52 zur tatsächlichen Pixelgröße S in
demselben Objektvolumen 52) nicht eins beträgt (d. h. größer
oder gleich eins ist, da das Objektvoxel kein kubisches Voxel
ist, wie man es beim Datenvolumen 54 antrifft), dann werden
die Erhebungswinkel ψ und γ verschieden sein, und der effek
tive Erhebungswinkel ψ im Datenvolumen wird gegenüber dem
tatsächlichen Erhebungswinkel γ in dem Objektvolumen unter
schiedlich sein. Die Rotation der Daten erfolgt gemäß einem
Objekterhebungswinkel, der erhalten wird durch:
Danach können die projizierten Daten so skaliert werden, daß
sie (wenn die Drehung um die horizontale Achse erfolgt) die
korrekte Höhe in dem Objektvolumen erhalten, und zwar durch
eine Multiplikation aller projizierten Datenhöhen mit dem
Höhenskalierungsfaktor. Die alte projizierte Bildhöhe H kann
mit einem effektiven Skalierungsfaktor Es korrigiert werden,
wobei gilt
und die neue Höhe H' = H.Es ist. Dasselbe trifft für die
Breite zu, wenn die Drehung um die vertikale Achse erfolgt.
Unter Verwendung der obigen Beziehung führt die Rotation der
Datenvolumenwinkel (α, β) zu den Winkeln (θ, Φ), weil die
Verzerrung lediglich entlang einer Achse auftritt, so daß der
Winkel θ gleich dem Winkel α ist. Die Elemente der 3×3
Rotationsmatrix [M] können bestimmt werden, und bei den gege
benen zwei in Betracht kommenden Drehungswinkeln werden diese
Beziehungen benutzt, um die Transformationen vom Datenvolumen
zur Bildebene zu bestimmen:
X' = M1X + M2Y + M3Z + XO
Y' = M4X + M5Y + M6Z + YO
Y' = M4X + M5Y + M6Z + YO
wobei M1-M6 die ersten beiden Zeilen der Rotationsmatrix
sind (d. h. M1 = -sinθ, M2 = cosθ sinψ, M3 = 0, M4 = -cosθ
sinψ2, M5 = -sinθ sinψ und M6 = cosψ), X' und Y' die Posi
tionen des projizierten Punktes auf der Bildebene sind, und
wobei XO und YO die X und die Y Versetzungen (jeweils bezogen
auf die niedrigsten X und Y Punktwerte) der Bildebene sind,
bei denen der ausgewählte Teil der Bildebene beginnt. Nachdem
die Daten auf die Bildebene 56 projiziert sind, wird das Bild
zur Korrektur des Effekts der anisotropen Objektvoxel ska
liert. Es wird ersichtlich sein, daß die Faktoren M1-M6 zu
Beginn einer Projektion (bei gegebenen θ und Φ) vorberechnet
(Schritt 32 in Fig. 3) und für alle Rotationsberechnungen
benutzt werden können.
Fig. 6 zeigt eine Einrichtung zur Durchführung der oben
beschriebenen Strahlwurftechnik, die in der Hauptsteuerung 8
(oder in einem separaten zugeordneten Prozessor) vorgesehen
ist. Eine derartige Einrichtung weist eine dreidimensionale
Datenspeichereinrichtung 70 zum Speichern von Schnittdaten
auf, wie sie an einem Dateneingang 70a vom Filmspeicher 24
erhalten werden. Die mit jedem Objektvoxel zusammenhängenden
Daten werden bei der Adresse des betreffenden Voxels gespei
chert, und zwar als Reaktion auf eine Eingangsinformation für
die Voxeladresse, die an einem Voxeladresseingang 70b von
einer CPU 74 erhalten wird. Sobald die Datenspeichereinrich
tung gefüllt ist (entsprechend der Übertragung aller erfor
derlichen Daten vom Objektvolumen 52 zum Datenvolumen 54),
wird der interessierende Teil des Objektvolumens ausgewählt,
und es werden seine Startecke sowie die Ausdehnung in den X,
Y und Z Richtungen festlegende Daten von der CPU 74 an einem
Eingang 72a einer Adressgeneratoreinrichtung 72 gesandt. Die
Einrichtung 72 liefert sequentiell an einem Adressausgang 72b
die X, Y und Z Adressen für jedes Voxel innerhalb des ausge
wählten Objektvolumens. Der Ausgang 72b ist mit einem Aus
gangsdatenadresseingang 70c der Datenspeichereinrichtung 70
verbunden, welche veranlaßt, daß die gespeicherten Intensi
tätsdaten für das betreffende eine sodann adressierte Voxel
vom Datenspeicherausgang 70d ausgegeben werden. Die Aufeinan
derfolge der X, Y und Z Voxeladressen wird ebenfalls an einen
ersten Eingang 76a einer Berechnungseinrichtung 76 für die
Rotationsparameter gegeben, welche Einrichtung über die CPU
74 die Winkelinformation (α, β) als die berechneten Matrixe
lementwerte M1-M6 erhält, um an einem Ausgang 76c die
Adresse X', Y' des Bildebenenpixel bereitzustellen, das
diesem Objektpixel X, Y, Z entspricht, wenn man es unter
einem ausgewählten Betrachtungswinkel (θ, Φ) betrachtet. Die
Information für den Betrachtungswinkel (θ, Φ) wird in das
System eingegeben und von der CPU 74 verarbeitet. Die Ergeb
nisse werden an die Eingänge 78b und 78c einer Sichtmatrix
einrichtung 78 gegeben, um Matrixelemente M1-M6 an ihrem
Ausgang 78a und damit an der Berechnungseinrichtung 76 für
die Drehungsparameter vorzusehen. Die Pixeladresse X', Y' in
der Bildebene erscheint an einem Adresseingang 80a eines
Bildpufferspeichers, der als eine Bildebenenspeichereinrich
tung 80 wirkt. Gleichzeitig erscheinen die von dem Datenvolu
men zur Projektionsebene projizierten Intensitätsdaten vom
Ausgang 70d der dreidimensionalen Datenspeichereinrichtung an
dem Eingang 80b für neue Daten der Bildebenenspeichereinrich
tung. Diese Daten erscheinen ebenfalls am Eingang 82a für
neue Daten einer Datenvergleichseinrichtung 82. Zuvor in der
Bildebenenspeichereinrichtung 80 für diese Adresse gespei
cherte Intensitätsdaten am Eingang 80a erscheinen an einem
Ausgang 80c für alte Daten und damit an einem Eingang 82b für
alte Daten in der Vergleichseinrichtung. Die alten und neuen
Daten an den jeweiligen Eingängen 82b/82a werden in der
Einrichtung 82 verglichen, und ein Ausgang 82c davon wird auf
einen ausgewählten logischen Zustand gesetzt (z. B. einen
oberen logischen Pegel), wenn die neuen Daten am Eingang 82a
eine größere Amplitude aufweisen als die alten Daten am
Eingang 82b. Der Ausgang 82c ist mit einem Eingang 80d der
Bildebenenspeichereinrichtung für Ersatz- (substitute) Steu
erdaten verbunden um zu veranlassen, daß die unter der vom
Eingang 80a gesteuerten Adresse gespeicherten Daten geändert
werden, um neue Daten am Eingang 80b anzunehmen, wenn sich
der Steuereingang für die Ersatzdaten 80d auf dem gewählten
logischen Pegel befindet. Somit werden die gespeicherten
Daten zu Anfang rückgesetzt, wie bei einem Signal durch einen
Daten/Steuereingang 80e (von der CPU 74), und es werden die
Daten mit dem größten Wert für jede Pixelstelle X', Y' in der
Bildebene gespeichert, und zwar als Antwort auf einen Ver
gleich, der anzeigt, ob die neuen Daten den Wert der zuvor
gespeicherten alten Daten übersteigen. Nachdem alle der
ausgewählten Adressen sequentiell vom Adressgenerator 72
abgetastet worden sind, werden die in der Bildebenenspei
chereinrichtung 80 gespeicherten Daten in der CPU 74 ska
liert, und die skalierten Bildebenendaten können von der
Speichereinrichtung 80 zur Anzeige, zur permanenten Speiche
rung oder zu ähnlichen Zwecken entnommen werden.
Gemäß einem weiteren Aspekt der Erfindung werden die skalier
ten Bildebenendaten vor einer Anzeige (Display) kartiert
(mapped), um eine gewünschte Helligkeit sowie einen gewünsch
ten Kontrastbereich zu erzielen (Schritt 38 in Fig. 3). Gemäß
dem bevorzugten Ausführungsbeispiel der Erfindung wird der
Kontrast der projizierten Bilder durch die Hauptsteuerung
eingestellt, indem eine eins-zu-eins-Kartierung der nicht
eingestellten Pixelintensitätsdaten in eingestellte Pixelin
tensitätsdaten hervorgerufen wird. Obwohl die Kartierung
(Mapping) auf der Basis von Pixelintensitätsdaten von entwe
der einem Quellbild (-frame) oder einem projizierten Bild
generiert werden kann, wird in dem bevorzugten Ausführungs
beispiel die Kartierung unter Verwendung der ersten (d. h. 0°)
Projektionsbilddaten generiert.
Um die Kontrasteinstellungskartierung zu generieren, kompi
liert die Hauptsteuerung ein Säulendiagramm von der Anzahl
der Pixel in dem projizierten Bild mit einer Intensität
innerhalb eines von jedem einer Vielzahl von vorgeschriebenen
Intensitätsbereichen oder -rahmen. Fig. 7A zeigt ein derar
tiges Säulendiagramm für ein projiziertes Bild mit einer
relativ hohe Intensität aufweisenden Pixeldaten; Fig. 8A
zeigt ein derartiges Säulendiagramm für ein projiziertes Bild
mit Pixeldaten, die eine relativ niedrige Intensität aufwei
sen. Zur gleichen Zeit ermittelt die Hauptsteuerung die
maximale Pixelintensität in dem Quell- oder projizierten
Bild. Beginnend mit dem Rahmen (Bin), der die maximale Anzahl
von Pixeln enthält, und indem dann die übrigen Rahmen in der
Reihenfolge von abnehmenden Pixelzahlen hinzuaddiert werden,
wird die Anzahl von Pixeln in jedem Intensitätsbereich oder
-rahmen aufaddiert, bis ein vorbestimmter Prozentsatz der
Gesamtzahl von Pixeln in dem Bild erreicht ist. Wenn die
gezählten Rahmen meistens Pixel mit einer relativ hohen
Intensität enthalten (wie es in Fig. 7A gezeigt ist), wird
die untere Grenze des die kleinste Intensität aufweisenden
Rahmens, der in der Zählung enthalten ist, der Pixelintensi
täts-Schwellenwert. Wenn umgekehrt die gezählten Rahmen
meistens Pixel mit einer relativ niedrigen Intensität enthal
ten (wie es in Fig. 8A gezeigt ist), wird die obere Grenze
des die höchste Intensität aufweisenden Rahmens, der in der
Zählung enthalten ist, der Pixelintensitäts-Schwellenwert. In
jedem Fall wird dann eine eins-zu-eins-Kartierung (Mapping)
erzeugt, so daß der Bereich der Intensitätswerte oberhalb
oder unterhalb des Pixelintensitäts-Schwellenwertes linear
korreliert ist zu einem expandierten Displayintensitäts-Werte
bereiches von z. B. 0 bis 255 im Falle von 8-Bit Intensi
tätswerten. Die aus dem Säulendiagramm gemäß Fig. 7A abge
leitete Kartierung ist in Fig. 7B gezeigt; die von dem
Säulendiagramm gemäß Fig. 8A abgeleitete Kartierung ist in
Fig. 8B gezeigt.
In dem erfindungsgemäßen Verfahren wird der Kontrast von
jedem projizierten Bild automatisch eingestellt, wobei die
Kartierung verwendet wird, die aus dem Pixelintensitäts-Säulen
diagramm generiert ist, bevor die Hauptsteuerung jedes
projizierte Bild in den Filmspeicher schreibt. Beispielsweise
werden für das eine hohe Intensität aufweisende projizierte
Bild, das in Fig. 7A gezeigt ist, die projizierten Pixelda
ten mit Intensitätswerten innerhalb des Bereiches von etwa
165 bis 250 in Displayintensitätswerte kartiert oder trans
formiert, die in einem Bereich von 0 bis 255 liegen, wie es
durch die schräge gerade Linie in Fig. 7B gezeigt ist. In
ähnlicher Weise werden für das eine kleine Intensität aufwei
sende projizierte Bild, das in Fig. 8A dargestellt ist, die
projizierten Pixeldaten mit Intensitätswerten innerhalb des
Bereiches von etwa 0 bis 80 in Displayintensitätswerte kar
tiert oder transformiert, die in einem Bereich von 0 bis 255
liegen, wie es durch die gestrichelte gerade Linie in Fig.
8B gezeigt ist. Es wird deutlich, daß sich der Eingangsbe
reich für die Kartierung ändert in Abhängigkeit von dem
Bereich der gezählten Rahmen in dem entsprechenden Säulendia
gramm, das von dem bestimmten Bild abgeleitet ist. Die Pi
xeldaten mit Intensitätswerten außerhalb des Kartierungsein
gabebereiches werden unberücksichtigt gelassen. Indem somit
der Kontrast von den Pixelintensitätsdaten von größtem Inter
esse vergrößert wird und die Pixelintensitätsdaten von ge
ringstem Interesse aussortiert werden, werden die Pixelinten
sitätsdaten für jedes projizierte Bild mit dem gewünschten
Helligkeits- und Kontrastbereich oberhalb oder unterhalb des
Pixelschwellenwertes kartiert. Die Kontrast-eingestellten
Pixelintensitätsdaten werden dann zu dem Filmspeicher für
eine nachfolgende Darstellung zurückgeleitet.
Die Projektionstechnik wird separat angewendet auf die
B-Mode-Intensitätsdaten sowie die Farbströmungsgeschwindig
keits- oder Energie(power)-Daten für das interessierende von
dem Filmspeicher wiedergegebene Datenvolumen. Jedes Pixel in
dem projizierten Bild schließt die transformierten Intensi
tätsdaten und die transformierten Geschwindigkeits- oder
Energiedaten ein, welche durch Projektion auf eine vorgegebe
ne Bildebene abgeleitet wurden. Zusätzlich speicherte während
der Zeit, in welcher der Filmspeicher vom Bediener
"eingefroren" war, die CPU 42 optional das letzte Bild
(frame) aus dem XY Speicher 18 unter mehrfachen aufeinander
folgenden Adressen im Abschnitt 24B des Filmspeichers 24. Die
projizierten Bilddaten für den ersten projizierten Betrach
tungswinkel werden in die erste Adresse im Filmspeicherab
schnitt 24B eingeschrieben, so daß die projizierten Bilddaten
in einem interessierenden Bereich dem Hintergrundbild
(background frame) überlagert werden. Dieser Prozeß wird für
jede Winkelzunahme wiederholt bis alle projizierten Bilder im
Filmspeicherabschnitt 24B gespeichert sind, wobei jeder
projizierte Bildrahmen aus einem interessierenden Gebiet
besteht, das transformierte Daten und als Option einen Peri
pheriehintergrund enthält, der das interessierende Gebiet
umgibt und aus Hintergrundbilddaten besteht, die nicht von
transformierten Daten aus dem interessierenden Gebiet über
schrieben sind. Das Hintergrundbild macht es deutlicher, von
wo aus jede zur Darstellung gebrachte Projektion betrachtet
wird. Der Bediener kann dann jedes projizierte Bild für die
Darstellung auswählen. Zusätzlich kann die Abfolge der proji
zierten Bilder erneut auf dem Displaymonitor abgespielt
werden, um das Objektvolumen so darzustellen, als wenn es vor
dem Betrachter rotieren würde.
Gemäß einer bevorzugten Ausführung der Erfindung besitzt das
Ultraschall-Bildgebungssystem mehrere verschiedene Projekti
onsmoden. Beispielsweise kann die Projektion Maximalwert- oder
Minimalwert-Pixel enthalten. Alternativ kann ein für die
Darstellung von Blutgefäßen nützlicher Mode ausgewählt wer
den, bei dem die Pixeldaten invertiert und dann die Maximal
werte auf die Bildebene projiziert werden. Gemäß einem weite
ren Modus kann die Strahlwurftechnik eingesetzt werden, um
eine Oberflächenwiedergabe (Oberflächen-Rendering) zu lie
fern.
Die vorstehenden bevorzugten Ausführungsbeispiele wurden zum
Zwecke der Veranschaulichung beschrieben. Abänderungen und
Modifikationen des Grundkonzepts der Erfindung werden sich
unschwer für Fachleute auf dem Gebiet der Ultraschall-Bild
gebung oder der Computergrafik ergeben. Alle derartigen
Abänderungen und Modifikationen sollen durch die nachfolgend
aufgeführten Ansprüche mitumfaßt werden.
Claims (20)
1. Einrichtung zur dreidimensionalen Bildgebung von einem
Ultraschall-streuenden Medium in einem Objektvolumen,
enthaltend:
ein Ultraschall-Wandler-Array zum Aussenden von Ultra schall-Bündeln und zum Erfassen von Ultraschall-Echos, die durch eine Vielzahl von Sample- bzw. Probevolumen in dem Objektvolumen reflektiert werden;
eine Einrichtung zum Gewinnen von Pixelintensitätsda ten, die von Ultraschall-Echos abgeleitet werden, die durch das streuende Medium reflektiert werden, wobei jedes Pixelintensitätsdatum einem entsprechenden aus einer Vielzahl von Sample- bzw. Probevolumen ent spricht;
eine Speichereinrichtung zum Speichern gewonnener Pixe lintensitätsdaten für jedes der vielen Sample- bzw. Probevolumen;
eine Einrichtung zum Wiedergeben eines Satzes von Pixe lintensitätsdaten aus der Speichereinrichtung, die ei nem interessierenden Volumen in dem Objektvolumen ent sprechen;
eine Einrichtung zum Projizieren des Pixelintensitäts-Daten satzes entsprechend dem interessierenden Volumen auf eine Bildebene, wodurch ein projizierter Pixelin tensitäts-Datensatz gebildet wird, der ein projiziertes Bild darstellt;
eine Einrichtung zum Übertragen bzw. Transformieren des projizierten Pixelintensitäts-Datensatzes, um ein Kon trast-eingestelltes projiziertes Bild darzustellen; einen Displaymonitor und
eine Einrichtung zum Darstellen des Kontrast-einge stellten projizierten Bildes auf dem Displaymonitor.
ein Ultraschall-Wandler-Array zum Aussenden von Ultra schall-Bündeln und zum Erfassen von Ultraschall-Echos, die durch eine Vielzahl von Sample- bzw. Probevolumen in dem Objektvolumen reflektiert werden;
eine Einrichtung zum Gewinnen von Pixelintensitätsda ten, die von Ultraschall-Echos abgeleitet werden, die durch das streuende Medium reflektiert werden, wobei jedes Pixelintensitätsdatum einem entsprechenden aus einer Vielzahl von Sample- bzw. Probevolumen ent spricht;
eine Speichereinrichtung zum Speichern gewonnener Pixe lintensitätsdaten für jedes der vielen Sample- bzw. Probevolumen;
eine Einrichtung zum Wiedergeben eines Satzes von Pixe lintensitätsdaten aus der Speichereinrichtung, die ei nem interessierenden Volumen in dem Objektvolumen ent sprechen;
eine Einrichtung zum Projizieren des Pixelintensitäts-Daten satzes entsprechend dem interessierenden Volumen auf eine Bildebene, wodurch ein projizierter Pixelin tensitäts-Datensatz gebildet wird, der ein projiziertes Bild darstellt;
eine Einrichtung zum Übertragen bzw. Transformieren des projizierten Pixelintensitäts-Datensatzes, um ein Kon trast-eingestelltes projiziertes Bild darzustellen; einen Displaymonitor und
eine Einrichtung zum Darstellen des Kontrast-einge stellten projizierten Bildes auf dem Displaymonitor.
2. Einrichtung nach Anspruch 1, dadurch gekennzeichnet,
daß die Transformationseinrichtung enthält:
eine Einrichtung zum Nullen der Intensitätswerte des projizierten Pixelintensitäts-Datensatzes, der in einem ersten Intensitätsbereich liegt; und
eine Einrichtung zum Übertragen bzw. Transformieren der intensitätswerte des projizierten Pixelintensitäts-Daten satzes, der in einem zweiten Intensitätsbereich liegt, in Kontrast-eingestellte Intensitätswerte, die in einem dritten Intensitätsbereich liegen, gemäß einer linearen Kartierung (Mapping), wobei die ersten und zweiten Intensitätsbereiche an einem Pixelintensitäts-Schwellen wert zusammenhängen und der dritte Intensi tätsbereich breiter als der zweite Intensitätsbereich ist und diesen überlappt, wobei die Kontrast eingestellten Intensitätswerte einen kartierten proji zierten Pixelintensitäts-Datensatz bilden, der das Kon trast-eingestellte projizierte Bild darstellt.
eine Einrichtung zum Nullen der Intensitätswerte des projizierten Pixelintensitäts-Datensatzes, der in einem ersten Intensitätsbereich liegt; und
eine Einrichtung zum Übertragen bzw. Transformieren der intensitätswerte des projizierten Pixelintensitäts-Daten satzes, der in einem zweiten Intensitätsbereich liegt, in Kontrast-eingestellte Intensitätswerte, die in einem dritten Intensitätsbereich liegen, gemäß einer linearen Kartierung (Mapping), wobei die ersten und zweiten Intensitätsbereiche an einem Pixelintensitäts-Schwellen wert zusammenhängen und der dritte Intensi tätsbereich breiter als der zweite Intensitätsbereich ist und diesen überlappt, wobei die Kontrast eingestellten Intensitätswerte einen kartierten proji zierten Pixelintensitäts-Datensatz bilden, der das Kon trast-eingestellte projizierte Bild darstellt.
3. Einrichtung nach Anspruch 2, dadurch gekennzeichnet,
daß der zweite intensitätsbereich Intensitätswerte ent
hält, die größer als die Intensitätswerte in dem ersten
Intensitätsbereich sind.
4. Einrichtung nach Anspruch 2, dadurch gekennzeichnet,
daß der zweite Intensitätsbereich Intensitätswerte ent
hält, die kleiner als die Intensitätswerte in dem er
sten Intensitätsbereich sind.
5. Einrichtung nach Anspruch 2, gekennzeichnet durch eine
Einrichtung zum Zählen der Anzahl von Pixeln in dem
projizierten Pixelintensitäts-Datensatz mit einem In
tensitätsbereich, der in jedem von einer Vielzahl von
intensitäts-Unterbereichen liegt, wobei der erste In
tensitätsbereich einen ersten Satz der Vielzahl von In
tensitäts-Unterbereichen enthält und der zweite Inten
sitätsbereich einen zweiten Satz einschließt und den
ersten Satz der Vielzahl von Intensitäts-Unterbereichen
ausschließt.
6. Einrichtung nach Anspruch 5, gekennzeichnet durch
eine Einrichtung zum Ermitteln des Pixelintensitäts-Schwellen
wertes als Antwort auf den Zählwert, der
gleich einer vorbestimmten Zahl ist, und
eine Einrichtung zum Erzeugen der linearen Kartierung
(Mapping) als eine Funktion des Pixelintensitäts-Schwellen
wertes.
7. Einrichtung nach Anspruch 2, gekennzeichnet durch eine
Einrichtung zum Zählen der Anzahl von Pixeln in dem Pi
xelintensitäts-Datensatz mit einem Intensitätsbereich,
der in jedem von einer Vielzahl von Intensitäts-Unter
bereichen liegt, wobei der erste Intensitätsbe
reich einen ersten Satz der Vielzahl von Intensitäts
unterbereichen enthält und der zweite Intensitätsbe
reich einen zweiten Satz einschließt und den ersten
Satz der Vielzahl von Intensitäts-Unterbereichen aus
schließt.
8. Einrichtung nach Anspruch 7, gekennzeichnet durch
eine Einrichtung zum Ermitteln des Pixelintensitäts-Schwellen
wertes als Antwort auf den Zählwert, der
gleich einer vorbestimmten Zahl ist, und
eine Einrichtung zum Erzeugen der linearen Kartierung
(Mapping) als eine Funktion des Pixelintensitäts-Schwellen
wertes.
9. Verfahren zur dreidimensionalen Bildgebung von einem
Ultraschall-streuenden Medium in einem Objektvolumen,
enthaltend die Schritte:
Aussenden von Ultraschall-Bündeln in einer Scan- bzw. Abtastebene, die das Objektvolumen an einer Vielzahl von Sample- bzw. Probevolumen in der Abtastebene schneidet;
Erfassen von Ultraschall-Echos, die von der Vielzahl von Sample- bzw. Probevolumen in der Abtastebene re flektiert werden;
Abtasten der Abtastebene durch das Objektvolumen;
Gewinnen von Pixelintensitätsdaten, die von Ultra schall-Echos abgeleitet werden, die durch das streuende Medium reflektiert werden, wobei jedes Pixelintensi tätsdatum einem entsprechenden einer Vielzahl von Samp le- bzw. Probevolumen entspricht;
Speichern gewonnener Pixelintensitätsdaten für jedes der vielen Sample- bzw. Probevolumen;
Wiederherstellen eines Satz von Pixelintensitätsdaten aus den gespeicherten gewonnenen Pixelintensitätsdaten, wobei jeder Pixelintensitäts-Datensatz einem interes sierenden Volumen in dem Objektvolumen entspricht;
Projizieren des Pixelintensitäts-Datensatzes auf eine Bildebene, wodurch ein projizierter Pixelintensitäts-Daten satz gebildet wird, der ein projiziertes Bild dar stellt;
Übertragen bzw. Transformieren des projizierten Pixe lintensitäts-Datensatzes, um ein Kontrast-eingestelltes projiziertes Bild darzustellen; und
bildliches Darstellen des Kontrast-eingestellten proji zierten Bildes.
Aussenden von Ultraschall-Bündeln in einer Scan- bzw. Abtastebene, die das Objektvolumen an einer Vielzahl von Sample- bzw. Probevolumen in der Abtastebene schneidet;
Erfassen von Ultraschall-Echos, die von der Vielzahl von Sample- bzw. Probevolumen in der Abtastebene re flektiert werden;
Abtasten der Abtastebene durch das Objektvolumen;
Gewinnen von Pixelintensitätsdaten, die von Ultra schall-Echos abgeleitet werden, die durch das streuende Medium reflektiert werden, wobei jedes Pixelintensi tätsdatum einem entsprechenden einer Vielzahl von Samp le- bzw. Probevolumen entspricht;
Speichern gewonnener Pixelintensitätsdaten für jedes der vielen Sample- bzw. Probevolumen;
Wiederherstellen eines Satz von Pixelintensitätsdaten aus den gespeicherten gewonnenen Pixelintensitätsdaten, wobei jeder Pixelintensitäts-Datensatz einem interes sierenden Volumen in dem Objektvolumen entspricht;
Projizieren des Pixelintensitäts-Datensatzes auf eine Bildebene, wodurch ein projizierter Pixelintensitäts-Daten satz gebildet wird, der ein projiziertes Bild dar stellt;
Übertragen bzw. Transformieren des projizierten Pixe lintensitäts-Datensatzes, um ein Kontrast-eingestelltes projiziertes Bild darzustellen; und
bildliches Darstellen des Kontrast-eingestellten proji zierten Bildes.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß
der Transformationsschritt die Schritte enthält:
Nullen der Intensitätswerte des projizierten Pixelin tensitäts-Datensatzes, der in einem ersten Intensitäts bereich liegt, und
Transformieren der Intensitätswerte von dem projizier ten Pixelintensitäts-Datensatz, der in einem zweiten Intensitätsbereich liegt, in Kontrast-eingestellte In tensitätswerte, die in einem dritten Intensitätsbereich liegen, gemäß einer linearen Kartierung (Mapping), wo bei die ersten und zweiten Intensitätsbereiche an einem Pixelintensitäts-Schwellenwert zusammenhängen und wobei der dritte Intensitätsbereich breiter als der zweite Intensitätsbereich ist und diesen überlappt, wobei die Kontrast-eingestellten Intensitätswerte, die einen kar tierten projizierten Pixelintensitäts-Datensatz bilden, das Kontrast-eingestellte projizierte Bild darstellen.
Nullen der Intensitätswerte des projizierten Pixelin tensitäts-Datensatzes, der in einem ersten Intensitäts bereich liegt, und
Transformieren der Intensitätswerte von dem projizier ten Pixelintensitäts-Datensatz, der in einem zweiten Intensitätsbereich liegt, in Kontrast-eingestellte In tensitätswerte, die in einem dritten Intensitätsbereich liegen, gemäß einer linearen Kartierung (Mapping), wo bei die ersten und zweiten Intensitätsbereiche an einem Pixelintensitäts-Schwellenwert zusammenhängen und wobei der dritte Intensitätsbereich breiter als der zweite Intensitätsbereich ist und diesen überlappt, wobei die Kontrast-eingestellten Intensitätswerte, die einen kar tierten projizierten Pixelintensitäts-Datensatz bilden, das Kontrast-eingestellte projizierte Bild darstellen.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß
der zweite Intensitätsbereich Intensitätswerte enthält,
die größer als die Intensitätswerte in dem ersten In
tensitätsbereich sind.
12. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß
der zweite Intensitätsbereich Intensitätswerte enthält,
die kleiner als die Intensitätswerte in dem ersten In
tensitätsbereich sind.
13. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß
die Anzahl von Pixeln in dem projizierten Pixelintensi
täts-Datensatz mit einem Intensitätsbereich, der in je
dem einer Vielzahl von Intensitäts-Unterbereichen
liegt, gezählt wird, wobei der erste Intensitätsbereich
einen ersten Satz der Vielzahl von Intensitäts-Unter
bereichen enthält und der zweite Intensitätsbe
reich einen zweiten Satz einschließt und den ersten
Satz der Vielzahl von Intensitäts-Unterbereichen aus
schließt.
14. Verfahren nach Anspruch 13, gekennzeichnet durch die
Schritte:
Ermitteln des Pixelintensitäts-Schwellenwertes bei ei nem Zählwert, der gleich einer vorbestimmten Zahl ist, und
Erzeugen der linearen Kartierung (Mapping) als eine Funktion des Pixelintensitäts-Schwellenwertes.
Ermitteln des Pixelintensitäts-Schwellenwertes bei ei nem Zählwert, der gleich einer vorbestimmten Zahl ist, und
Erzeugen der linearen Kartierung (Mapping) als eine Funktion des Pixelintensitäts-Schwellenwertes.
15. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß
die Anzahl von Pixeln in einem Untersatz von dem Pixe
lintensitäts-Datensatz gezählt wird, der dem interes
sierenden Volumen mit einem Intensitätsbereich ent
spricht, der in jedem von einer Vielzahl von Intensi
täts-Unterbereichen liegt, wobei der erste Intensitäts
bereich einen ersten Satz der vielen Intensitäts-Unter
bereiche enthält und der zweite Intensitätsbereich
einen zweiten Satz einschließt und den ersten Satz der
vielen Intensitäts-Unterbereiche ausschließt.
16. Verfahren nach Anspruch 15, gekennzeichnet durch die
Schritte:
Ermitteln des Pixelintensitäts-Schwellenwertes bei dem Zählwert, der gleich einer vorbestimmten Zahl ist, und
Erzeugen der linearen Kartierung (Mapping) als eine Funktion des Pixelintensitäts-Schwellenwertes.
Ermitteln des Pixelintensitäts-Schwellenwertes bei dem Zählwert, der gleich einer vorbestimmten Zahl ist, und
Erzeugen der linearen Kartierung (Mapping) als eine Funktion des Pixelintensitäts-Schwellenwertes.
17. Verfahren zur dreidimensionalen Bildgebung von einem
Ultraschall-streuenden Medium in einem Objektvolumen,
enthaltend die Schritte:
Aussenden von Ultraschall-Bündeln in einer Abtast- bzw. Scanebene, die das Objektvolumen an einer Vielzahl von Sample- bzw. Probevolumen in der Abtastebene schneidet;
Erfassen von Ultraschall-Echos, die von der Vielzahl von Sample- bzw. Probevolumen in der Abtastebene re flektiert werden;
Abtasten der Abtastebene durch das Objektvolumen an ei ner Vielzahl von Abtastpositionen;
Gewinnen einer Vielzahl von Untersätzen von Pixelinten sitätsdaten, die von Ultraschall-Echos abgeleitet wer den, die durch das streuende Medium in entsprechenden Ebenen reflektiert werden, die durch die Abtastpositio nen der Abtastebene definiert sind, wobei jeder Unter satz von Pixelintensitätsdaten ein entsprechendes In tensitätsdatenbild (Frame) bildet;
Speichern der Vielzahl von Intensitätsdatenbildern;
Wiedergeben eines entsprechenden Untersatzes von Pixel intensitätsdaten, die einem interessierenden Bereich entsprechen, aus gewählten aufeinanderfolgenden gespei cherten Intensitätsdatenbildern, wobei die Pixelinten sitäts-Datenuntersätze, die einen Pixelintensitäts- Datensatz bilden, einem interessierenden Volumen in dem Objektvolumen entsprechen;
Projizieren des Pixelintensitäts-Datensatzes auf eine Bildebene, wodurch ein projizierter Pixelintensitäts-Daten satz gebildet wird, der ein projiziertes Bild dar stellt;
Transformieren des projizierten Pixelintensitäts-Daten satzes, um ein Kontrast-eingestelltes projiziertes Bild darzustellen; und
bildliches Darstellen eines Bildes, das das Kontrast eingestellte projizierte Bilde aufweist, das auf einem zentralen Bereich von einem gewählten der Vielzahl von Intensitätsdatenbildern (Frames) überlagert ist.
Aussenden von Ultraschall-Bündeln in einer Abtast- bzw. Scanebene, die das Objektvolumen an einer Vielzahl von Sample- bzw. Probevolumen in der Abtastebene schneidet;
Erfassen von Ultraschall-Echos, die von der Vielzahl von Sample- bzw. Probevolumen in der Abtastebene re flektiert werden;
Abtasten der Abtastebene durch das Objektvolumen an ei ner Vielzahl von Abtastpositionen;
Gewinnen einer Vielzahl von Untersätzen von Pixelinten sitätsdaten, die von Ultraschall-Echos abgeleitet wer den, die durch das streuende Medium in entsprechenden Ebenen reflektiert werden, die durch die Abtastpositio nen der Abtastebene definiert sind, wobei jeder Unter satz von Pixelintensitätsdaten ein entsprechendes In tensitätsdatenbild (Frame) bildet;
Speichern der Vielzahl von Intensitätsdatenbildern;
Wiedergeben eines entsprechenden Untersatzes von Pixel intensitätsdaten, die einem interessierenden Bereich entsprechen, aus gewählten aufeinanderfolgenden gespei cherten Intensitätsdatenbildern, wobei die Pixelinten sitäts-Datenuntersätze, die einen Pixelintensitäts- Datensatz bilden, einem interessierenden Volumen in dem Objektvolumen entsprechen;
Projizieren des Pixelintensitäts-Datensatzes auf eine Bildebene, wodurch ein projizierter Pixelintensitäts-Daten satz gebildet wird, der ein projiziertes Bild dar stellt;
Transformieren des projizierten Pixelintensitäts-Daten satzes, um ein Kontrast-eingestelltes projiziertes Bild darzustellen; und
bildliches Darstellen eines Bildes, das das Kontrast eingestellte projizierte Bilde aufweist, das auf einem zentralen Bereich von einem gewählten der Vielzahl von Intensitätsdatenbildern (Frames) überlagert ist.
18. Verfahren nach Anspruch 17, dadurch gekennzeichnet, daß
der Transformationsschritt die Schritte enthält:
Nullen der Intensitätswerte des projizierten Pixelin tensitäts-Datensatzes, der in einem ersten Intensitäts bereich liegt, und
Transformieren der Intensitätswerte des projizierten Pixelintensitäts-Datensatzes, der in einem zweiten In tensitätsbereich liegt, in Kontrast-eingestellte Inten sitätswerte, die in einem dritten Intensitätsbereich liegen, gemäß einer linearen Kartierung (Mapping), wo bei die ersten und zweiten Intensitätsbereiche an einem Pixelintensitäts-Schwellenwerte zusammenhängen und wo bei der dritte Intensitätsbereich breiter ist als der zweite Intensitätsbereich und diesen überlappt, wobei die Kontrast-eingestellten Intensitätswerte einen kar tierten, projizierten Pixelintensitäts-Datensatz bil den, der das Kontrast-eingestellte projizierte Bild darstellt.
Nullen der Intensitätswerte des projizierten Pixelin tensitäts-Datensatzes, der in einem ersten Intensitäts bereich liegt, und
Transformieren der Intensitätswerte des projizierten Pixelintensitäts-Datensatzes, der in einem zweiten In tensitätsbereich liegt, in Kontrast-eingestellte Inten sitätswerte, die in einem dritten Intensitätsbereich liegen, gemäß einer linearen Kartierung (Mapping), wo bei die ersten und zweiten Intensitätsbereiche an einem Pixelintensitäts-Schwellenwerte zusammenhängen und wo bei der dritte Intensitätsbereich breiter ist als der zweite Intensitätsbereich und diesen überlappt, wobei die Kontrast-eingestellten Intensitätswerte einen kar tierten, projizierten Pixelintensitäts-Datensatz bil den, der das Kontrast-eingestellte projizierte Bild darstellt.
19. Verfahren nach Anspruch 18, dadurch gekennzeichnet, daß
die Anzahl von Pixeln in dem projizierten Pixelintensi
täts-Datensatz mit einem Intensitätsbereich gezählt
wird, der in jedem von einer Vielzahl von Intensitäts-Unter
bereichen liegt, wobei der erste Intensitätsbe
reich einen ersten Satz aus der Vielzahl von Intensi
täts-Unterbereichen einschließt und der zweite Intensi
tätsbereich einen zweiten Satz einschließt und den er
sten Satz der vielen Intensitäts-Unterbereiche aus
schließt.
20. Verfahren nach Anspruch 19, gekennzeichnet durch die
Schritte:
Ermitteln des Pixelintensitäts-Schwellenwertes bei ei nem Zählwert, der gleich einer vorbestimmten Zahl ist, und
Erzeugen der linearen Kartierung (Mapping) als eine Funktion des Pixelintensitäts-Schwellenwertes.
Ermitteln des Pixelintensitäts-Schwellenwertes bei ei nem Zählwert, der gleich einer vorbestimmten Zahl ist, und
Erzeugen der linearen Kartierung (Mapping) als eine Funktion des Pixelintensitäts-Schwellenwertes.
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US08/852,772 US5954653A (en) | 1997-05-07 | 1997-05-07 | Method and apparatus for automatically enhancing contrast in projected ultrasound image |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE19819800A1 true DE19819800A1 (de) | 1998-12-03 |
Family
ID=25314174
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE19819800A Ceased DE19819800A1 (de) | 1997-05-07 | 1998-05-04 | Verfahren und Einrichtung zum automatischen Verbessern des Kontrastes in projizierten Ultraschallbildern |
Country Status (4)
| Country | Link |
|---|---|
| US (1) | US5954653A (de) |
| JP (1) | JP4155618B2 (de) |
| DE (1) | DE19819800A1 (de) |
| IL (1) | IL124164A (de) |
Cited By (7)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2000040996A1 (en) * | 1998-12-31 | 2000-07-13 | General Electric Company | Ultrasound color flow display optimization by adjusting color maps |
| WO2002081817A1 (en) * | 2001-03-20 | 2002-10-17 | Runtech Systems Oy | Apparatus and method for treating roll surfaces and/or fabrics |
| DE10141724A1 (de) * | 2001-08-25 | 2003-03-06 | Brueel & Kjaer Vibro Gmbh | Verfahren zur Darstellung eines Histogramms auf einer Rasteranzeige |
| EP0996002A3 (de) * | 1998-10-19 | 2003-07-16 | General Electric Company | System und Verfahren zur Randverstärkung in Ultraschall- Bilderzeugung |
| US6979295B2 (en) | 2003-11-19 | 2005-12-27 | Ge Medical Systems Global Technology Company, Llc | Automatic color gain adjustments |
| WO2008044173A1 (en) * | 2006-10-13 | 2008-04-17 | Koninklijke Philips Electronics N.V. | 3d ultrasonic color flow imaging with grayscale invert |
| DE102009058887A1 (de) * | 2009-12-18 | 2011-06-22 | Daimler AG, 70327 | Anzeigeverfahren und Anzeigevorrichtung für ein Fahrzeug und betreffendes Computerprogrammprodukt |
Families Citing this family (40)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH11164833A (ja) * | 1997-09-30 | 1999-06-22 | Toshiba Corp | 医用画像診断装置 |
| JP3218216B2 (ja) * | 1998-03-20 | 2001-10-15 | アロカ株式会社 | 三次元画像処理装置 |
| EP0973128B1 (de) * | 1998-06-22 | 2003-06-11 | Texas Instruments Incorporated | Selektive Helligkeitserweiterung |
| US6734904B1 (en) * | 1998-07-23 | 2004-05-11 | Iteris, Inc. | Imaging system and method with dynamic brightness control |
| US6048313A (en) * | 1998-09-17 | 2000-04-11 | Stonger; Kelly A. | Method and apparatus for fractal-based enhancement of ultrasound imaging |
| US6102861A (en) * | 1999-04-23 | 2000-08-15 | General Electric Company | Method and apparatus for three-dimensional ultrasound imaging using surface-enhanced volume rendering |
| US6413219B1 (en) | 1999-03-31 | 2002-07-02 | General Electric Company | Three-dimensional ultrasound data display using multiple cut planes |
| JP4408988B2 (ja) * | 1999-05-31 | 2010-02-03 | 株式会社東芝 | 超音波診断装置 |
| US6434260B1 (en) * | 1999-07-12 | 2002-08-13 | Biomedicom, Creative Biomedical Computing Ltd. | Facial imaging in utero |
| US6476810B1 (en) * | 1999-07-15 | 2002-11-05 | Terarecon, Inc. | Method and apparatus for generating a histogram of a volume data set |
| US6542626B1 (en) * | 1999-11-05 | 2003-04-01 | General Electric Company | Method and apparatus for adapting imaging system operation based on pixel intensity histogram |
| US6398733B1 (en) | 2000-04-24 | 2002-06-04 | Acuson Corporation | Medical ultrasonic imaging system with adaptive multi-dimensional back-end mapping |
| US6579238B1 (en) | 2000-04-24 | 2003-06-17 | Acuson Corporation | Medical ultrasonic imaging system with adaptive multi-dimensional back-end mapping |
| JP3898047B2 (ja) * | 2001-07-09 | 2007-03-28 | セイコーインスツル株式会社 | 血液レオロジー測定装置 |
| US7092558B2 (en) * | 2002-08-14 | 2006-08-15 | General Electric Company | Automated optimization of medical 3D visualizations |
| US20050053305A1 (en) * | 2003-09-10 | 2005-03-10 | Yadong Li | Systems and methods for implementing a speckle reduction filter |
| US7275547B2 (en) * | 2003-10-08 | 2007-10-02 | Boston Scientific Scimed, Inc. | Method and system for determining the location of a medical probe using a reference transducer array |
| US20050110793A1 (en) * | 2003-11-21 | 2005-05-26 | Steen Erik N. | Methods and systems for graphics processing in a medical imaging system |
| JP4564286B2 (ja) * | 2004-06-14 | 2010-10-20 | 株式会社東芝 | 3次元超音波画像化装置 |
| US7627386B2 (en) * | 2004-10-07 | 2009-12-01 | Zonaire Medical Systems, Inc. | Ultrasound imaging system parameter optimization via fuzzy logic |
| US8834371B2 (en) * | 2005-03-31 | 2014-09-16 | Kabushiki Kaisha Toshiba | Ultrasound diagnostic apparatus and ultrasound image processing program |
| US8784318B1 (en) | 2005-07-22 | 2014-07-22 | Zonare Medical Systems, Inc. | Aberration correction using channel data in ultrasound imaging system |
| US8002705B1 (en) | 2005-07-22 | 2011-08-23 | Zonaire Medical Systems, Inc. | Continuous transmit focusing method and apparatus for ultrasound imaging system |
| US20070038106A1 (en) | 2005-07-27 | 2007-02-15 | Medison Co., Ltd. | Ultrasound diagnostic system and method of automatically controlling brightness and contrast of a three-dimensional ultrasound image |
| JP4740695B2 (ja) * | 2005-08-26 | 2011-08-03 | 株式会社日立メディコ | 超音波診断装置 |
| JP5226181B2 (ja) * | 2005-11-24 | 2013-07-03 | ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー | 画像診断装置 |
| US7796830B2 (en) * | 2006-08-15 | 2010-09-14 | Nokia Corporation | Adaptive contrast optimization of digital color images |
| JP4881112B2 (ja) * | 2006-09-19 | 2012-02-22 | 株式会社東芝 | 超音波診断装置及び画像データ生成方法 |
| US20080146922A1 (en) * | 2006-10-24 | 2008-06-19 | Zonare Medical Systems, Inc. | Control of user interfaces and displays for portable ultrasound unit and docking station |
| US20080242988A1 (en) * | 2007-03-28 | 2008-10-02 | Tetsuya Yoshida | Ultrasound diagnostic apparatus, ultrasound image processing apparatus, and ultrasound image processing method |
| US9060669B1 (en) | 2007-12-20 | 2015-06-23 | Zonare Medical Systems, Inc. | System and method for providing variable ultrasound array processing in a post-storage mode |
| JP5072585B2 (ja) * | 2007-12-27 | 2012-11-14 | 株式会社東芝 | 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム |
| US20100036727A1 (en) * | 2008-08-07 | 2010-02-11 | Sarelson Seth H | Method of Tracking the Impact of Paid Search on Offline Sales |
| KR102185726B1 (ko) * | 2014-01-28 | 2020-12-02 | 삼성메디슨 주식회사 | 관심 영역에 대응하는 초음파 영상 표시 방법 및 이를 위한 초음파 장치 |
| US9842424B2 (en) * | 2014-02-10 | 2017-12-12 | Pixar | Volume rendering using adaptive buckets |
| JP6938763B2 (ja) * | 2017-08-23 | 2021-09-22 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | ドップラー超音波信号からの胎児運動検出法 |
| EP3466344A1 (de) * | 2017-10-03 | 2019-04-10 | Koninklijke Philips N.V. | Fötusbewegungsdetektionsverfahren aus doppler-ultraschallsignalen |
| US11771399B2 (en) | 2018-02-07 | 2023-10-03 | Atherosys, Inc. | Apparatus and method to guide ultrasound acquisition of the peripheral arteries in the transverse plane |
| EP3787480A4 (de) | 2018-04-30 | 2022-01-26 | Atherosys, Inc. | Verfahren und vorrichtung zur automatischen detektion von atheromen in peripheren arterien |
| WO2020011589A1 (en) * | 2018-07-11 | 2020-01-16 | Koninklijke Philips N.V. | Ultrasound imaging system with pixel extrapolation image enhancement |
Family Cites Families (13)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5226113A (en) * | 1989-10-30 | 1993-07-06 | General Electric Company | Method and apparatus for volumetric projection rendering using reverse ray casting |
| GB9025431D0 (en) * | 1990-11-22 | 1991-01-09 | Advanced Tech Lab | Three dimensional ultrasonic imaging |
| US5469849A (en) * | 1993-06-14 | 1995-11-28 | Kabushiki Kaisha Toshiba | Ultrasound diagnosis apparatus |
| US5456255A (en) * | 1993-07-12 | 1995-10-10 | Kabushiki Kaisha Toshiba | Ultrasonic diagnosis apparatus |
| US5365929A (en) * | 1993-10-04 | 1994-11-22 | Advanced Technology Laboratories, Inc. | Multiple sample volume spectral Doppler |
| US5474073A (en) * | 1994-11-22 | 1995-12-12 | Advanced Technology Laboratories, Inc. | Ultrasonic diagnostic scanning for three dimensional display |
| US5485842A (en) * | 1994-11-30 | 1996-01-23 | Advanced Technology Laboratories, Inc. | Ultrasonic diagnostic scan conversion for three dimensional display processing |
| JP3406106B2 (ja) * | 1995-02-06 | 2003-05-12 | ジーイー横河メディカルシステム株式会社 | 超音波画像表示方法および超音波診断装置 |
| US5655535A (en) * | 1996-03-29 | 1997-08-12 | Siemens Medical Systems, Inc. | 3-Dimensional compound ultrasound field of view |
| JP2001504603A (ja) * | 1995-06-15 | 2001-04-03 | ザ・リージエント・オブ・ザ・ユニバーシテイ・オブ・ミシガン | 二次元超音波から三次元画像を構成し表示する方法および装置 |
| US5706816A (en) * | 1995-07-17 | 1998-01-13 | Aloka Co., Ltd. | Image processing apparatus and image processing method for use in the image processing apparatus |
| US5582173A (en) * | 1995-09-18 | 1996-12-10 | Siemens Medical Systems, Inc. | System and method for 3-D medical imaging using 2-D scan data |
| JP3407169B2 (ja) * | 1995-10-12 | 2003-05-19 | 富士写真光機株式会社 | 超音波画像立体表示装置及び超音波画像立体表示方法 |
-
1997
- 1997-05-07 US US08/852,772 patent/US5954653A/en not_active Expired - Lifetime
-
1998
- 1998-04-22 IL IL12416498A patent/IL124164A/xx not_active IP Right Cessation
- 1998-05-04 DE DE19819800A patent/DE19819800A1/de not_active Ceased
- 1998-05-06 JP JP12345098A patent/JP4155618B2/ja not_active Expired - Fee Related
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP0996002A3 (de) * | 1998-10-19 | 2003-07-16 | General Electric Company | System und Verfahren zur Randverstärkung in Ultraschall- Bilderzeugung |
| WO2000040996A1 (en) * | 1998-12-31 | 2000-07-13 | General Electric Company | Ultrasound color flow display optimization by adjusting color maps |
| WO2002081817A1 (en) * | 2001-03-20 | 2002-10-17 | Runtech Systems Oy | Apparatus and method for treating roll surfaces and/or fabrics |
| DE10141724A1 (de) * | 2001-08-25 | 2003-03-06 | Brueel & Kjaer Vibro Gmbh | Verfahren zur Darstellung eines Histogramms auf einer Rasteranzeige |
| DE10141724B4 (de) * | 2001-08-25 | 2006-11-16 | Brüel & Kjaer Vibro GmbH | Verfahren zur Darstellung eines Histogramms auf einer Rasteranzeige |
| US6979295B2 (en) | 2003-11-19 | 2005-12-27 | Ge Medical Systems Global Technology Company, Llc | Automatic color gain adjustments |
| WO2008044173A1 (en) * | 2006-10-13 | 2008-04-17 | Koninklijke Philips Electronics N.V. | 3d ultrasonic color flow imaging with grayscale invert |
| DE102009058887A1 (de) * | 2009-12-18 | 2011-06-22 | Daimler AG, 70327 | Anzeigeverfahren und Anzeigevorrichtung für ein Fahrzeug und betreffendes Computerprogrammprodukt |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4155618B2 (ja) | 2008-09-24 |
| IL124164A (en) | 2000-06-29 |
| US5954653A (en) | 1999-09-21 |
| JPH1147134A (ja) | 1999-02-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE19819800A1 (de) | Verfahren und Einrichtung zum automatischen Verbessern des Kontrastes in projizierten Ultraschallbildern | |
| DE19819892B4 (de) | Verfahren und Einrichtung zum Segmentieren von B-Mode-Intensitätsdaten unter Verwendung von Doppler-Verschiebungsdaten bei dreidimensionaler Ultraschall-Bildgebung | |
| DE19819794A1 (de) | Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Kombination von Intensitätsdaten mit Farbströmungsgeschwindigkeits- oder Energiedaten | |
| DE19819831A1 (de) | Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Projektion von gefilterten Pixeldaten | |
| DE3686401T2 (de) | Darstellung von stromlinien in inhomogenen medien. | |
| DE19819832B4 (de) | Verfahren zum Verbessern der Segmentierung bei einer dreidimensionalen Ultraschall-Bildgebung | |
| DE69316780T2 (de) | On-line-akustisches, densitometrisches Gerät für die Anwendung zur Ultraschallbilderfassung | |
| DE69516816T2 (de) | Ultraschall-Diagnostik mit Abtastumsetzung für dreidimensionale Anzeigeverarbeitung | |
| DE69619262T2 (de) | Dreidimensionales bildverarbeitungssystem | |
| DE69706766T2 (de) | Ultraschall-Diagnose-Vorrichtung und Verfahren zur Erzeugung von Ultraschall-Bildern mit der Vorrichtung | |
| DE60309486T2 (de) | Zwei-EBENEN ULTRASCHALLABBILDUNG MIT EINEM DIE GEGENSEITIGE EBENENORIENTIERUNG ABBILDENDEN SYMBOL | |
| DE69931647T2 (de) | Zoom- ultraschall- bilderzeugung mit verwendung von unabhängigen bearbeitungs- kanälen | |
| DE19819801B4 (de) | Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung unter Verwendung eines Wandlerarrays mit gleichförmiger Erhebungsbündelweite | |
| DE69612148T2 (de) | Ultraschall- Bildverarbeitungsvorrichtung und ein Verfahren zum Erzeugen eines Ultraschallbilds | |
| DE69527409T2 (de) | Diagnostische Ultraschall-Abtastung für dreidimensionale Anzeige | |
| DE69936418T2 (de) | Vorrichtung für dreidimensionale Ultraschall-Abbildung mit Kontrastmitteln und harmonischen Echos | |
| DE69737720T2 (de) | Verbessertes bildverarbeitungsverfahren für ein dreidimensionales bilderzeugungssystem | |
| DE69727994T2 (de) | Medizinisches Ultraschall Diagnose Bildsystem mit Abtastanzeige für eine dreidimensionale Bilddarstellung | |
| DE3855040T2 (de) | Bildverarbeitungsverfahren und -gerät | |
| DE69736549T2 (de) | System, verfahren und wandler zum ausrichten mehrerer ultraschallbilder | |
| DE3689399T2 (de) | Kubusteilungssystem und Verfahren zur Anzeige von im Innengebiet eines massiven Körpers enthaltenen Flächenstrukturen. | |
| DE3872031T2 (de) | Verfahren zum berechnen und zur wiedergabe von sichtbildern eines objektes. | |
| EP0962785B1 (de) | Verfahren zur Untersuchung von Objekten mit Ultraschall | |
| DE19819793A1 (de) | Verfahren und Einrichtung zum Segmentieren von Farbströmungs-Mode-Daten unter Verwendung von Geschwindigkeitsinformation bei der dreidimensionalen Ultraschall-Bildgebung | |
| DE102005037806A1 (de) | Verfahren und Vorrichtung zur Vergrösserung des Sichtfelds bei der Ultraschallbildgebung |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 8110 | Request for examination paragraph 44 | ||
| R016 | Response to examination communication | ||
| R002 | Refusal decision in examination/registration proceedings | ||
| R003 | Refusal decision now final |
Effective date: 20140621 |