[go: up one dir, main page]

DE19819800A1 - Verfahren und Einrichtung zum automatischen Verbessern des Kontrastes in projizierten Ultraschallbildern - Google Patents

Verfahren und Einrichtung zum automatischen Verbessern des Kontrastes in projizierten Ultraschallbildern

Info

Publication number
DE19819800A1
DE19819800A1 DE19819800A DE19819800A DE19819800A1 DE 19819800 A1 DE19819800 A1 DE 19819800A1 DE 19819800 A DE19819800 A DE 19819800A DE 19819800 A DE19819800 A DE 19819800A DE 19819800 A1 DE19819800 A1 DE 19819800A1
Authority
DE
Germany
Prior art keywords
intensity
pixel
pixel intensity
projected
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE19819800A
Other languages
English (en)
Inventor
William Thomas Hatfield
Susan Thayer Mahan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE19819800A1 publication Critical patent/DE19819800A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52034Data rate converters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/5206Two-dimensional coordinated display of distance and direction; B-scan display
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52073Production of cursor lines, markers or indicia by electronic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52046Techniques for image enhancement involving transmitter or receiver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52071Multicolour displays; using colour coding; Optimising colour or information content in displays, e.g. parametric imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52074Composite displays, e.g. split-screen displays; Combination of multiple images or of images and alphanumeric tabular information
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/916Ultrasound 3-D imaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Description

Die Erfindung bezieht sich allgemein auf Ultraschall-Bild­ gebung der menschlichen Anatomie zum Zweck der medizinischen Untersuchung. Insbesondere bezieht sich die Erfindung auf ein Verfahren zur bildlichen Darstellung der menschlichen Anato­ mie durch Erfassen der Intensität von Ultraschall-Echos, die von dem abgetasteten bzw. gescanten Volumen in einem mensch­ lichen Körper reflektiert werden.
Die üblichsten Modi der diagnostischen Ultraschall-Bildgebung umfassen B- und M-Modes (benutzt zur Darstellung interner, physikalischer Struktur), Doppler und Farbströmung (die letzten zwei werden hauptsächlich dazu verwendet, Strömungs-Charakter­ istiken, wie beispielsweise in Blutgefäßen, darzu­ stellen). Bei der üblichen B-Mode-Bildgebung erzeugen Ultra­ schall-Scanner Bilder, in denen die Helligkeit von einem Pixel auf der Intensität von einer Echoantwort beruht. Die Amplitude von den reflektierten Wellen wird dazu verwendet, schwarze und weiße Bilder von den Geweben zu erzeugen.
Die vorliegende Erfindung ist in einem Ultraschall-Bild­ gebungssystem verkörpert, das aus vier hauptsächlichen Unter­ systemen besteht: einem Bündelformer 2 (vgl. Fig. 1), einem Prozessor-Subsystem 4, einer Abtastkonverter/Displaysteuerung 6 sowie einer Hauptsteuerung 8. Die Systemsteuerung erfolgt zentral in der Hauptsteuerung 8, welche die Bedienereingaben über eine (nicht gezeigte) Bedienerschnittstelle empfängt und ihrerseits die verschiedenen Untersysteme steuert. Die Haupt­ steuerung erzeugt ebenfalls für das System die Zeit- und Steuersignale, die über einen Systemsteuerbus 10 sowie einen (nicht gezeigten) Scan- bzw. Abtaststeuerbus verteilt werden.
Der Hauptdatenpfad beginnt mit den digitalisierten HF Eingän­ gen von dem Wandler an den Strahl- bzw. Bündelformer. Der Bündelformer gibt zwei aufsummierte, digitale Empfangsbündel im Basisband aus. Die Basisbanddaten werden als Eingang an den B-Mode-Prozessor 4A und den Farbströmungsprozessor 4B gegeben, wo sie entsprechend dem Datenerfassungsmodus prozes­ siert und als prozessierte akustische Vektor- (Bündel-)Daten an den Abtastkonverter/Displayprozessor 6 ausgegeben werden. Der Abtastkonverter/Displayprozessor 6 nimmt die prozessier­ ten akustischen Daten auf und gibt die Video-Displaysignale für die Abbildung in einem Rastercan-Format an einen Farbmo­ nitor 12 aus. Die Abtastkonverter/Displaysteuerung 6 forma­ tiert weiterhin in Zusammenarbeit mit der Hauptsteuerung 8 viele Bilder zum Display, für Display-Anmerkungen, grafische Auflagen (overlays) sowie für eine Wiedergabe von Filmschlei­ fen und aufgezeichneten Zeitliniendaten.
Der B-Mode-Prozessor 4A konvertiert die Basisbanddaten von dem Bündelformer in eine logarithmisch komprimierte Version der Signaleinhüllenden. Die B-Funktion bildet die zeitvaria­ ble Amplitude der Einhüllenden des Signals als eine Grauskala unter Verwendung eines 8-Bit Ausgangs für jedes Pixel ab. Die Einhüllende eines Basisbandsignals ist die Größe des Vektors, der die Basisbanddaten repräsentiert.
Die Frequenz der von der Innenseite von Blutgefäßen, Herzkam­ mern usw. reflektierten Schallwellen wird proportional zu der Geschwindigkeit der Blutzellen verschoben, und zwar in posi­ tiver Richtung für sich auf den Wandler zu bewegende Zellen und in negativer Richtung für die sich davon weg bewegende Zellen. Der Farbströmungs(CF)-Prozessor 4B wird benutzt, um eine zweidimensionale Echtzeit-Abbildung der Blutgeschwindig­ keit in der Abbildungsebene vorzusehen.
Die akustischen Zeilenspeicher 14A und 14B der Abtastkonver­ ter/Displaysteuerung 6 nehmen jeweils die von den Prozessoren 4A und 4B prozessierten digitalen Daten auf und führen die Koordinatentransformationen der Farbströmungs- und Intensi­ tätsdaten vom Polarkoordinaten- (R-θ) Sektorformat oder vom Cartesischen linearen Koordinatenfeld zu geeignet skalierten Display-Pixeldaten durch, die im X-Y Displayspeicher 18 gespeichert werden. Im B-Mode werden die Intensitätsdaten im X-Y Displayspeicher 18 gespeichert, wobei jede Adresse drei Pixel zu 8 Bit speichert. Alternativ werden im Farbströmungs­ modus die Farbströmungsdaten wie folgt im Speicher gespei­ chert: Intensitätsdaten (8 Bits), Geschwindigkeits- oder Energiedaten (8 Bits) sowie Turbulenzdaten (4 Bits).
Eine Vielzahl von aufeinanderfolgenden (Voll-)Bildern (Frames) von Farbströmungs- oder B-Mode-Daten werden im Filmspeicher auf einer First-In/First-Out (FIFO) Basis ge­ speichert. Der Filmspeicher wirkt als ein im Hintergrund laufender ringförmiger Bildpufferspeicher, der kontinuierlich auf Bilddaten zugreift, die in Echtzeit für den Benutzer zur Darstellung gebracht werden. Wenn der Benutzer das System "einfriert", hat er die Möglichkeit, zuvor im Filmspeicher eingefangene Bilddaten anzuschauen. Die Grafikdaten für die Herstellung von grafischen Auflagen auf dem dargestellten Bild werden erzeugt und gespeichert in dem Zeitlini­ en/Grafikprozessor und Displayspeicher 20. Der Videoprozessor 22 schaltet im Multiplexbetrieb zwischen den Grafikdaten, den Bilddaten sowie den Zeitliniendaten hin und her, um den endgültigen Videoausgang in einem Rasterabtastformat auf dem Videomonitor 12 zu erzeugen. Zusätzlich sorgt er für ver­ schiedene Grauskala- und Farbkartierungen (maps) sowie für die Verknüpfung der Grauskala- und Farbbilder.
Das konventionelle Ultraschall-Bildgebungssystem sammelt B-Mode- oder Farbströmungs-Mode-Bilder in einem Filmspeicher 24 auf einer kontinuierlichen Basis. Der Filmspeicher 24 stellt einen residenten digitalen Bildspeicher für Einzelbildbe­ trachtung und für Mehrfachbildschleifenbetrachtung sowie verschiedene Steuerungsfunktionen zur Verfügung. Das während der Einzelbild-Filmwiedergabe dargestellte interessierende Gebiet ist dabei dasjenige, das während der entsprechenden Bilderfassung benutzt wurde. Der Filmspeicher arbeitet eben­ falls als ein Puffer für die Übertragung von Bildern zu digitalen Archivierungsgeräten über die Hauptsteuerung 8.
Konventionelle Ultraschall-Scanner erzeugen zweidimensionale B-Mode-Bilder, bei denen die Helligkeit eines Pixels auf der Intensität der Echorückkehr basiert. Zweidimensionale Ultra­ schall-Bilder sind oftmals schwer zu interpretieren aufgrund des Unvermögens des Beobachters, sich die zweidimensionale Darstellung der gerade abgetasteten Anatomie zu veranschauli­ chen. Wird jedoch die Ultraschallsonde über einen interessie­ renden Bereich geführt und werden dabei zweidimensionale Abbildungen zur Formung eines dreidimensionalen Volumens akkumuliert, dann läßt sich die Anatomie viel leichter sowohl für den geübten als auch für den ungeübten Betrachter vor­ stellen. Üblicherweise werden dreidimensionale Abbildungen von B-Mode-Daten und Farbströmungs-Geschwindigkeits- oder Energie(power)-Daten separat zur Darstellung gebracht. Es gibt jedoch viele Gelegenheiten, bei denen beim Darstellen der Geschwindigkeits- oder Energiedaten allein der Betrachter ein Gefühl für die gerade abgebildete Anatomie verliert. Durch eine Kombination von Intensitäts-Projektionen mit Projektionen von Farbströmungsgeschwindigkeit- oder Energie­ daten ist es möglich, ein Gefühl für die Anatomie beizube­ halten und gleichzeitig die Geschwindigkeit oder Energie abzubilden.
Um die beste Bildqualität zu erhalten, wenn dreidimensionale Rekonstruktionen von Ultraschallbildern ausgeführt werden, ist es aufgrund der großen Änderung im Kontrast von Ultra­ schallbildern notwendig, den Kontrast des rekonstruierten Bildes einzustellen. Dies geschieht üblicherweise dadurch, daß der Benutzer interaktiv den Kontrast und die Helligkeit des Bildes einstellen kann. Dieses Verfahren ist zeitraubend und erfordert einen Benutzereingang, der auf Ultraschall- Bildgebungseinrichtungen normalerweise nicht vorgesehen ist. Weiterhin können der Kontrast und die Helligkeit des wieder­ gegebenen Bildes von den Quellbildern beträchtlich abweichen, die dazu verwendet werden, die dreidimensionale Projektion zu konstruieren. Wenn die originalen und wiedergegebenen Bilder gleichzeitig durch den gleichen Display-Prozessor betrachtet werden, kann es unmöglich sein, für beide Bilder akzeptable Helligkeits- und Kontrastwerte zu erzielen.
Die vorliegende Erfindung gibt ein Verfahren sowie eine Einrichtung an zum automatischen Einstellen des Kontrastes in dreidimensionalen Ultraschallbildern, um einen optimalen Kontrast zu erzielen. Dies wird dadurch erreicht, daß automa­ tisch die Helligkeits- und Kontrastwerte von dem rekonstru­ ierten Bild auf der Basis der Werte der rekonstruierten oder Quellbilder eingestellt werden, um die optimalen Werte für das rekonstruierte Bild zu erzielen. Diese Technik gestattet, daß sowohl die Quell- als auch rekonstruierten Bilder in den gleichen Helligkeits- und Kontrastbereichen dargestellt werden.
Die Erfindung wird in einem Ultraschall-Bildgebungssystem verwendet, das B-Mode-Bilder in einem Filmspeicher auf einer kontinuierlichen Basis oder auf ein externes Trigger-Ereignis hin sammelt, d. h. für eine Vielzahl von Schnitten bzw. Schei­ ben (Slices). Die Daten von einem jeweiligen interessierenden Bereich bzw. Gebiet für jeden Schnitt oder jedes Quellbild werden zu einer Hauptsteuerung gesandt, wobei derartige Daten ein interessierendes Volumen bilden. Die Hauptsteuerung führt einen Algorithmus aus, der die Pixelintensitätsdaten in dem interessierenden Volumen iterativ auf mehrere gedrehte Bilde­ benen projiziert, und zwar unter Verwendung einer Strahl­ wurf (ray-casting) -Technik. Die projizierten Bilder werden schließlich als getrennte Vollbilder (Frames) in dem Film­ speicher gespeichert, wobei jedes Vollbild (Frame) auf das letzte Hintergrund-Vollbild(Frame) überlagert bzw. superposi­ tioniert ist. Bevor jedoch die projizierten Bilder in dem Filmspeicher gespeichert werden, wird der Kontrast von den Pixelintensitätsdaten, die diese projizierten Bilder aufbau­ en, eingestellt.
Erfindungsgemäß wird der Kontrast der projizierten Bilder dadurch eingestellt, daß eine eins-zu-eins-Kartierung (Mapping) der nicht-eingestellten Pixelintensitätsdaten in eingestellte Pixelintensitätsdaten erzeugt wird. Die Kartie­ rung wird erzeugt auf der Basis von Pixelintensitätsdaten von entweder einem Quellbild (Quellframe) oder einem projizierten Bild. Im ersten Fall wird die Kartierung vor der Projektion generiert; im zweiten Fall wird die Kartierung nach der Projektion generiert. Die Kartierung wird auf jedes proji­ zierte Bild angewendet, um für eine Kontrasteinstellung für eine bildliche Darstellung zu sorgen.
Um die Kontrasteinstellungs-Kartierung zu generieren, kompi­ liert die Hauptsteuerung ein Säulendiagramm bzw. Histogramm von der Anzahl von Pixeln mit einer Intensität innerhalb jeder von einer Vielzahl von vorgeschriebenen Intensitätsbe­ reichen oder -rahmen (Bins) für einen oder mehrere Schnitte (Slices) von Quelldaten oder für ein oder mehrere projizierte Bilder (z. B. die 0° Projektion). Zur gleichen Zeit ermittelt die Hauptsteuerung die maximale Pixelintensität in dem Quell- oder dem projizierten Bild. Indem mit dem Bereich oder Rah­ men, der die maximale Anzahl von Pixeln enthält, begonnen wird und die übrigen Bereiche oder Rahmen in der Reihenfolge abnehmender Pixelzahl hinzuaddiert werden, werden die Pixel­ zahlen in jedem Intensitätsbereich oder -rahmen aufaddiert, bis ein vorbestimmter Prozentsatz der Gesamtzahl von Pixeln erreicht ist. Wenn die gezählten Bereiche oder Rahmen mei­ stens Pixel mit relativ hoher Intensität enthalten, wird die untere Grenze des Bereiches oder Rahmens mit kleinster Inten­ sität, die in der Zählung enthalten ist, der Pixelintensi­ täts-Schwellenwert. Wenn umgekehrt die gezählten Bereiche oder Rahmen meistens Pixel mit relativ kleiner Intensität enthalten, wird die obere Grenze des die höchste Intensität aufweisenden Bereiches oder Rahmens, der in der Zählung enthalten ist, der Pixelintensitäts-Schwellenwert. In jedem Fall wird dann eine eins-zu eins-Kartierung (Mapping) er­ zeugt, so daß der Bereich von Intensitätswerten oberhalb (oder unterhalb) des Pixelintensitäts-Schwellenwertes linear korreliert wird zu einem expandierten Displayintensitäts-Werte­ bereich von 0 bis 255.
In dem erfindungsgemäßen Verfahren wird der Kontrast von jedem projizierten Bild automatisch eingestellt, wobei die Kartierung (Mapping) verwendet wird, die aus dem Pixelinten­ sitäts-Histogramm generiert ist, bevor die Hauptsteuerung dieses projizierte Bild in den Filmspeicher schreibt. Genauer gesagt, die projizierten Pixeldaten mit Intensitätswerten innerhalb des Bereiches, der den Bereichen oder Rahmen (Bins) entspricht, die in der Histogramm-Zählung enthalten sind, d. h. in dem Kartierungseingabebereich, werden bezüglich des Kontrastes eingestellt, indem jeder Intensitätswert in den projizierten Pixeldaten in den entsprechenden Displayintensi­ tätswert transformiert wird, der durch die eins-zu-eins-Kartierung gebildet wird. Die Pixeldaten mit Intensitätswer­ ten außerhalb des Kartierungseingabebereiches werden aussor­ tiert. Indem also der Kontrast der Pixelintensitätsdaten von höchstem Interesse vergrößert wird und die Pixelintensitäts­ daten mit geringstem Interesse aussortiert werden, wird jedes projizierte Bild zu dem gewünschten Helligkeits- und Kon­ trastbereich oberhalb oder unterhalb des Pixelschwellenwertes in Abhängigkeit von dem beabsichtigten Ergebnis kartiert.
Die Erfindung wird im folgenden anhand von Ausführungsbei­ spielen unter Zuhilfenahme der Zeichnungen näher erläutert.
Es zeigen:
Fig. 1 ein Blockschaltbild, das die hauptsächlichen funktio­ nalen Subsysteme innerhalb eines Echtzeit-Ultraschall-Bild­ gebungssystems zeigt;
Fig. 2 ein Blockschaltbild der Einrichtung zur Rekonstruktion von Bilder (Frames) enthaltend aufeinanderfolgende volumetri­ sche Projektionen von Intensitäts- und Geschwindigkeits- oder Energiepixeldaten gemäß einer bevorzugten Ausführungsform der vorliegenden Erfindung;
Fig. 3 ein Flußdiagramm, das die Schritte eines Algorithmus für die Rekonstruktion der Bilder (Frames) unter Einschluß von aufeinanderfolgenden volumetrischen Projektionen von Intensitäts- und Geschwindigkeits- oder Energiepixeldaten gemäß der bevorzugten Ausführung der vorliegenden Erfindung zeigt;
Fig. 4 eine schematische Darstellung des abgetasteten inter­ essierenden Objektvolumens, ein zugeordnetes Datenvolumen sowie eine Bildprojektionsebene, die in die volumetrische Wiedergabe einer umgekehrten Strahlwurfprojektion gemäß dem Stand der Technik miteinbezogen ist;
Fig. 5 eine schematische Darstellung, die ein Paar von geome­ trischen zweidimensionalen Konfigurationen entsprechend gleichen Ansichten von Objekt- und Datenvolumen zeigt, und die nützlich ist bei der Definition von notwendigen Skalier­ konstanten bei der dreidimensionalen Ultraschall-Bildgebung;
Fig. 6 ein schematisches Blockschaltbild einer Einrichtung zur Lieferung einer Projektion mit maximaler Intensität bei der dreidimensionalen Ultraschall-Bildgebung.
Fig. 7A ein Säulendiagramm ist, das die Population von Pixeln mit Intensitätswerten in vorbestimmten Bereichen für ein Bild mit Pixeln hoher Intensität zeigt;
Fig. 7B eine Kontrasteinstellungskartierung von den eine hohe Intensität aufweisenden Pixeldaten, die in Fig. 7A darge­ stellt sind, gemäß dem bevorzugten Ausführungsbeispiel der Erfindung ist;
Fig. 8A ein Säulendiagramm ist, das die Population von Pixeln mit Intensitätswerten in vorbestimmten Bereichen für ein Bild mit Pixeln geringer Intensität zeigt;
Fig. 8B eine Kontrasteinstellungskartierung von den eine geringe Intensität aufweisenden Pixeldaten, die in Fig. 8A dargestellt sind, gemäß dem bevorzugten Ausführungsbeispiel der Erfindung ist.
Gemäß Fig. 2 enthält die Hauptsteuerung 8 eine zentrale Verarbeitungseinheit (CPU) 42 und einen Speicher 44 mit wahlfreiem Zugriff. Die CPU 42 weist einen darin angeordneten Nur-Lese-Speicher (ROM) zum Speichern der Routinen auf, die für die Umsetzung (Transformation) des gewonnenen Volumens von Intensitäts- oder Farbströmungsmodedaten in eine Vielzahl von dreidimensionalen unter verschiedenen Winkeln genommenen Projektionsbildern benutzt werden. Die CPU 42 steuert den XY-Speicher 18 und den Filmspeicher 24 über den Systemsteuerbus 10. Insbesondere steuert die CPU 42 den Datenfluß von dem XY-Speicher 18 zum Videoprozessor 22 und zum Filmspeicher 24 sowie von dem Filmspeicher zum Videoprozessor 22 und zur CPU 42 selbst. Wenn das Ultraschall-Bildgebungssystem im Farbströmungsmodus arbeitet, wird jedes (Voll-)Bild (frame) von Farbströmungsdaten, das einen von mehreren Scans oder Schnitten (Slices) durch das untersuchte Objekt repräsen­ tiert, in dem XY-Speicher 18 gespeichert und im nächsten Zyklus zum Videoprozessor 22 sowie zum Filmspeicher 24 über­ tragen. Ein das abgetastete Objektvolumen repräsentierender Stapel von Bildern wird im Abschnitt 24A des Filmspeichers 24 gespeichert. Während der Initialisierung (vgl. Schritt 26 in Fig. 3) holt die CPU 42 vom Abschnitt 24A des Filmspeichers lediglich die einem interessierenden Objektvolumen entspre­ chenden Farbströmungsdaten. Dies wird bewerkstelligt, indem man lediglich die Farbströmungsdaten in einem interessieren­ den Gebiet von jedem gespeicherten Bild holt, das von irgend­ einem Scan gewonnen wurde, der das interessierende Volumen geschnitten hatte. Mit anderen Worten, die dem interessieren­ den Gebiet entsprechenden Farbströmungsdaten von jedem einen Bild eines Stapels von aufeinanderfolgenden Bildern bilden ein interessierendes Quelldatenvolumen.
Wie aus Fig. 3 zu ersehen ist, werden die Intensitätsdaten in dem dem interessierenden Objektvolumen entsprechenden Pixel­ datensatz vor der Projektion als Option gefiltert (Schritt 28), um Fleckenrauschen (Speckle-Rauschen) zu glätten und Artefakte zu reduzieren. Dies vermeidet während der Projekti­ on den Verlust von Daten aufgrund von Fleckenrauschen. Bei­ spielsweise erzeugen Blutgefäße weniger Echo als das umgeben­ de Gewebe. Gefäße können deshalb unter Einsatz von Projektio­ nen mit minimaler Intensität abgebildet werden. Alternativ werden im Umkehrvideo/Minimum-Mode die Intensitätsdaten invertiert, um die Gefäße hell anstatt dunkel zu machen. Die Gefäße können dann unter Einsatz von Projektionen mit maxima­ ler Intensität abgebildet werden. Um die Auswahl von maxima­ len Intensitäten, die helle Flecken im Gegensatz zu den gewünschten Pixeldaten sind, zu verhindern, kann vor der Projektion ein Filter zur Beseitigung solcher hellen Fleckin­ tensitäten benutzt werden. Das aus dem Filmspeicher 24 (vgl. Fig. 2) geholte Quelldatenvolumen kann von der CPU 42 gefil­ tert werden, indem man beispielsweise ein 3×3 Faltungsfil­ ter mit einem 111 141 111 Kernel benutzt, d. h. das zentrale Pixel der Intensitätsdaten in jedem 3×3 Pixelarray in jedem Schnitt oder Bild (Frame) wird ersetzt durch einen Intensi­ tätswert, der proportional ist zu der Summe aus dem vierfa­ chen Wert des zentralen Pixels plus der Summe aus den Werten der acht dieses Pixel umgebenden Pixel. Das gefilterte Quell­ datenvolumen wird sodann im Speicher 44 abgespeichert (Schritt 30). In ähnlicher Weise kann ein Faltungsfilter benutzt werden, um schwarze Löcher in einem Bild vor der Projektion mit minimaler Intensität zu entfernen.
Als nächstes führt die CPU 42 unter Verwendung des im US-Patent No. 5,226,113 beschriebenen Strahlwurf-Algorithmus (ray casting algorithm) eine Reihe von Transformationen durch. Die aufeinanderfolgenden Transformationen repräsentie­ ren Projektionen mit maximaler, minimaler oder durchschnitt­ licher Intensität, Geschwindigkeits- oder Energieprojektio­ nen, die unter winkelmäßigen Inkrementen, beispielsweise in Intervallen von 10°, innerhalb eines Winkelbereichs, z. B. von +90° bis -90°, vorgenommen werden. Die Winkelinkremente müssen jedoch nicht 10° sein; auch ist die Erfindung nicht auf einen bestimmten Winkelbereich begrenzt.
In Übereinstimmung mit der bei der vorliegenden Erfindung angewandten Strahlwurftechnik werden die volumetrisch wieder­ gegebenen Projektionsbilder von einem Sample bzw. einer Probe 50 (vgl. Fig. 4) unter irgendeinem willkürlichen Betrach­ tungswinkel zur Anzeige gebracht, z. B. einem sphärischen Projektionswinkel, der durch die Winkelparameter (θ, Φ) bezeichnet wird, wobei θ der Winkel ist, den eine Verlänge­ rung 58' eines Betrachtungsstrahls 58 auf der X-Y Ebene bildet, und wobei Φ der Winkel des Strahls 58 bezogen auf die Verlängerung 58' ist, und zwar beim Scannen eines Objektvolu­ mens 52 mittels eines Ultraschallwandlers. Das Samplevolumen 52 wird in einer derartigen Weise abgetastet, daß man eine Folge von geschichteten benachbarten Schnitten (slices) oder Scheiben OS1, OS2 . . ., OSk erzeugt, von denen jede dieselbe Anzahl von Objektvolumenelementen (voxels) OV enthält. Jedes Voxel besitzt ein rechteckiges Profil in der Scheibenebene (z. B. in der X-Y Ebene); während die komplementären Seiten von gleicher Länge S sein können, so daß dieses Profil ein Quadrat sein kann, ist die Scheibendicke T im allgemeinen nicht gleich mit der Länge von jeder Seite. Somit enthält der erste Objektschnitt OS1 eine erste Anzahl von Objektvoxel OVij,1, wobei i und j die jeweiligen Positionen des Voxels auf der X-Achse und auf der Y-Achse sind. In gleicher Weise enthält der zweite Objektschnitt Os2 Objektvoxel OVij,2. Ein willkürlicher Objektschnitt OSk enthält Voxel OVij,k, wobei k die Position dieses Voxels auf der Z-Achse bedeutet.
Jedes Objektvoxel OVij,k wird analysiert und sein Datenwert (Intensität, Geschwindigkeit oder Energie) wird in ein ent­ sprechendes Datenvoxel DVij,k eines Datenvolumens 54 plaziert. Das Datenvolumen 54 ist ein einfaches kubisches i, j, k Gitter, obwohl die Dicke eines jeden Objektschnitts OSk und jede Flächengröße eines Objektvoxels (die Größe des Voxels in der X-Y Ebene) im allgemeinen nicht dieselbe sein werden. Das bedeutet, es kann nicht nur das Objektvolumen unterschiedli­ che Dimensionen X, Y und Z für jedes Voxel aufweisen, sondern es braucht auch die insgesamte Anzahl von Voxel in irgendei­ ner Dimension nicht dieselbe zu sein. Beispielsweise kann ein typischer dreidimensionaler Ultraschall-Scan jeden Schnitt mit einer 256×256 Voxel enthaltenden Matrix liefern und 128 Schnitte betreffen.
Gemäß einer von der CPU 42 angewandten bekannten Technik wird ein Bild des Objekts 50 projiziert (Schritt 34 in Fig. 3) durch Projektion eines Strahls von einem Gitterpunkt im Datenvoxel DVij,k in Richtung auf die Bildebene 56. Der Ein­ fachheit halber kann der Gitterpunkt beispielsweise die am nächsten an dem Datenvolumenursprung liegende Datenvoxelspit­ ze sein. Der Projektionsstrahl 62 tritt aus dem Datenvolumen 54 unter einem Projektionswinkel mit sphärischen Winkelpara­ metern (α, β) aus, die aus den sphärischen Winkelparametern (θ, Φ) transformiert wurden, unter denen das Objektvolumen 52 betrachtet wird. Diese beiden Winkel sind nicht gleich, und zwar aufgrund der geometrischen Verzerrung, die durch die Benutzung eines kubischen Datenvolumens 54 zusammen mit einem nicht-kubischen Objektvolumen 52 verursacht wird. Der proji­ zierte Strahl 62 weist jedoch eine Verlängerung 62' in der x-y Ebene auf, die einen Winkel α mit Bezug auf die x Achse des Datenvolumens bildet, und der Strahl 62 bildet einen Winkel β mit der Z Achse. Somit werden die Winkel α und β bestimmt durch einen (nachfolgend zu beschreibenden) Rota­ tionsprozeß, um der Betrachtung des Objektvolumens 52 unter dem gewünschten Betrachtungswinkel (θ, Φ) zu entsprechen (unter der Annahme eines Betriebs mit sphärischen Koordina­ ten). Jeder der Strahlen 62 wird von dem Voxel-Gitterpunkt des Datenvolumens in Richtung auf die Bildebene projiziert.
Obwohl alle Strahlen 62 auf irgendeinen Bereich der Bildebene auftreffen, wird nur den in das betrachtete Bildebenenpixel 60a fallenden Strahlen erlaubt, zu den Daten für dieses Bildebenenpixel beizutragen. Hat man somit einen Teil des Objektvolumens 52 zur Betrachtung ausgewählt sowie einen Betrachtungswinkel (θ, Φ), unter dem dieses ausgewählte Objektvolumen betrachtet werden soll, wird der Datenwert in jedem Voxel des entsprechenden Teils von dem Datenvolumen unter einem Winkel (α, β) (entsprechend der Betrachtung des verzerrten Datenvolumens mit Bezug auf das Objektvolumen) in Richtung auf die Bildebene 56 projiziert. Der Datenwert in einem ersten Voxel (zum Beispiel Voxel DVi,1,k), wird somit in Übereinstimmung mit den gewählten Werten θ und Φ entlang dem Strahl 62a rückprojiziert. Dieser Strahl 62a trifft bei einer Position 64a innerhalb des Pixels 60a auf die Bildebene 56 auf, und weil dies der erste auf dieses Pixel auftreffende Strahl ist, wird der Intensitäts-, Geschwindigkeits- oder Energiewert des auftreffenden Strahls dem gewünschten Pixel 60a zugeteilt (bzw. darin gespeichert). Das nächste Voxel in dem Datenvolumen (z. B. Voxel DVi,2,k) hat seinen zugehörigen Strahl 62b unter derselben winkelmäßigen (α, β) Konfiguration vom Voxel-Gitterpunkt projiziert, und seine Position 64b auf der Bildebene 56 wird festgehalten. Unter der Annahme, daß diese Auftreffposition 64b im gewünschten Pixel 60a liegt, wird der zweite projizierte Wert (für eine Maximalpixelpro­ jektion) mit dem nun gespeicherten ersten Wert verglichen, und es wird der größere Wert im Speicher für das Pixel 60a plaziert. Es wird verständlich sein, daß für eine Projektion mit einem Durchschnittswert der Wert eines laufenden proji­ zierten Datenvoxels zu der bereits gespeicherten Summe für das Bildfeldpixel (image panel pixel), auf das der Projekti­ onsstrahl auftrifft, hinzuaddiert wird, und die Summe schließlich durch eine gezählte Anzahl von solchen auftref­ fenden Strahlen für dieses Pixel geteilt wird. Da jedes Voxel in dem ausgewählten Datenvolumen sequentiell eingegeben und in Richtung auf die Bildebene 56 projiziert wird, wird schließlich ein Datenvolumenvoxel (z. B. Voxel DVi,3,k) ent­ lang seinem zugehörigen Strahl 62p projiziert und trifft nicht innerhalb des gewünschten Pixels 60a auf, so daß sein Datenwert (z. B. die Intensität) nicht mit dem gegenwärtig für das Pixel 60a gespeicherten Datenwert verglichen wird. Es wird nun für diese Projektion von Daten bei dem bestimmten (θ, Φ) dreidimensionalen Betrachtungswinkel der maximale Datenwert für das Pixel 60a festgelegt. Tatsächlich weist der Strahl 62p jedoch einen Auftreffpunkt 64p auf, der in ein anderes Pixel (z. B. Pixel 60b) der Bildebene fällt; er wird mit dem darin gespeicherten Datenwert verglichen und der nach dem Vergleich sich ergebende größere Wert wird in den Spei­ cher für dieses Pixel zurückgeführt. Alle Datenwerte werden auf Null zurückgesetzt, wenn eine neue Projektion erfolgen soll. Somit wird jedes der Pixel der Bildebene beim Start einer Bildprojektionsprozedur rückgesetzt, und alle Datenvo­ lumenvoxel (in dem gesamten Raum oder in dem ausgewählten Teil, wie durch den Teil des ausgewählten Objektvolumens 52 festgelegt) werden einzeln und sequentiell abgetastet. Der Datenwert in jeden Datenvoxel DV wird durch einen zugeordne­ ten Strahl 62 so projiziert, daß er in einem Pixel 60 davon auf die Bildebene 56 auftrifft, wobei der Maximalwert in jedem Pixel mit dem gegenwärtigen Wert des strahlprojizierten Datenvolumenvoxels verglichen wird, um den größeren davon zu bestimmen, welcher größere Wert sodann als Teil des Maximal­ wertbildes gespeichert wird. In der Praxis wird für eine maximale Pixelprojektion der gespeicherte Maximalwert ledig­ lich dann verändert, wenn der neuerliche Wert des projizier­ ten Datenvoxels größer ist als der bereits für das Bildebe­ nenpixel gespeicherte Datenwert, auf den der neuerliche Projektionsstrahl auftrifft.
Gemäß einem anderen Aspekt der obigen Technik wird die Daten­ projektion (im Schritt 36 in Figur. 3) skaliert und es wird eine etwaige Anisotropie zwischen dem Objektvolumen und der Bildebene durch lediglich einen einzigen Satz von Berechnun­ gen beseitigt, nachdem die Rückprojektion abgeschlossen ist. Es wird nun auf Fig. 5 Bezug genommen. Da es sich bei dem Objektvolumen 52 um ein reales Volumen handelt, während es sich bei dem Datenvolumen 54 um ein abstraktes Konzept han­ delt, ist es nötig, den Betrag der Verzerrung der Projekti­ onsdaten aufgrund der Darstellung des kubischen Datenvolumen­ gitters 54 unter einem unterschiedlichen Winkel γ in einer ersten Ebene zu bestimmen und sodann den Winkel ψ, unter dem eine willkürliche Betrachtungsrichtung 66 mit Bezug sowohl auf das Objektvolumen 52 als auch auf das Datenvolumen 54 positioniert wird. Die offenbaren Dimensionen von jedem Voxel werden sich in dem Maße ändern, wie sich die effektiven Erhebungswinkel ψ und γ ändern. Wenn das Aspektverhältnis A (definiert als das Verhältnis der tatsächlichen Scheibendicke T im Objektvolumen 52 zur tatsächlichen Pixelgröße S in demselben Objektvolumen 52) nicht eins beträgt (d. h. größer oder gleich eins ist, da das Objektvoxel kein kubisches Voxel ist, wie man es beim Datenvolumen 54 antrifft), dann werden die Erhebungswinkel ψ und γ verschieden sein, und der effek­ tive Erhebungswinkel ψ im Datenvolumen wird gegenüber dem tatsächlichen Erhebungswinkel γ in dem Objektvolumen unter­ schiedlich sein. Die Rotation der Daten erfolgt gemäß einem Objekterhebungswinkel, der erhalten wird durch:
Danach können die projizierten Daten so skaliert werden, daß sie (wenn die Drehung um die horizontale Achse erfolgt) die korrekte Höhe in dem Objektvolumen erhalten, und zwar durch eine Multiplikation aller projizierten Datenhöhen mit dem Höhenskalierungsfaktor. Die alte projizierte Bildhöhe H kann mit einem effektiven Skalierungsfaktor Es korrigiert werden, wobei gilt
und die neue Höhe H' = H.Es ist. Dasselbe trifft für die Breite zu, wenn die Drehung um die vertikale Achse erfolgt.
Unter Verwendung der obigen Beziehung führt die Rotation der Datenvolumenwinkel (α, β) zu den Winkeln (θ, Φ), weil die Verzerrung lediglich entlang einer Achse auftritt, so daß der Winkel θ gleich dem Winkel α ist. Die Elemente der 3×3 Rotationsmatrix [M] können bestimmt werden, und bei den gege­ benen zwei in Betracht kommenden Drehungswinkeln werden diese Beziehungen benutzt, um die Transformationen vom Datenvolumen zur Bildebene zu bestimmen:
X' = M1X + M2Y + M3Z + XO
Y' = M4X + M5Y + M6Z + YO
wobei M1-M6 die ersten beiden Zeilen der Rotationsmatrix sind (d. h. M1 = -sinθ, M2 = cosθ sinψ, M3 = 0, M4 = -cosθ sinψ2, M5 = -sinθ sinψ und M6 = cosψ), X' und Y' die Posi­ tionen des projizierten Punktes auf der Bildebene sind, und wobei XO und YO die X und die Y Versetzungen (jeweils bezogen auf die niedrigsten X und Y Punktwerte) der Bildebene sind, bei denen der ausgewählte Teil der Bildebene beginnt. Nachdem die Daten auf die Bildebene 56 projiziert sind, wird das Bild zur Korrektur des Effekts der anisotropen Objektvoxel ska­ liert. Es wird ersichtlich sein, daß die Faktoren M1-M6 zu Beginn einer Projektion (bei gegebenen θ und Φ) vorberechnet (Schritt 32 in Fig. 3) und für alle Rotationsberechnungen benutzt werden können.
Fig. 6 zeigt eine Einrichtung zur Durchführung der oben beschriebenen Strahlwurftechnik, die in der Hauptsteuerung 8 (oder in einem separaten zugeordneten Prozessor) vorgesehen ist. Eine derartige Einrichtung weist eine dreidimensionale Datenspeichereinrichtung 70 zum Speichern von Schnittdaten auf, wie sie an einem Dateneingang 70a vom Filmspeicher 24 erhalten werden. Die mit jedem Objektvoxel zusammenhängenden Daten werden bei der Adresse des betreffenden Voxels gespei­ chert, und zwar als Reaktion auf eine Eingangsinformation für die Voxeladresse, die an einem Voxeladresseingang 70b von einer CPU 74 erhalten wird. Sobald die Datenspeichereinrich­ tung gefüllt ist (entsprechend der Übertragung aller erfor­ derlichen Daten vom Objektvolumen 52 zum Datenvolumen 54), wird der interessierende Teil des Objektvolumens ausgewählt, und es werden seine Startecke sowie die Ausdehnung in den X, Y und Z Richtungen festlegende Daten von der CPU 74 an einem Eingang 72a einer Adressgeneratoreinrichtung 72 gesandt. Die Einrichtung 72 liefert sequentiell an einem Adressausgang 72b die X, Y und Z Adressen für jedes Voxel innerhalb des ausge­ wählten Objektvolumens. Der Ausgang 72b ist mit einem Aus­ gangsdatenadresseingang 70c der Datenspeichereinrichtung 70 verbunden, welche veranlaßt, daß die gespeicherten Intensi­ tätsdaten für das betreffende eine sodann adressierte Voxel vom Datenspeicherausgang 70d ausgegeben werden. Die Aufeinan­ derfolge der X, Y und Z Voxeladressen wird ebenfalls an einen ersten Eingang 76a einer Berechnungseinrichtung 76 für die Rotationsparameter gegeben, welche Einrichtung über die CPU 74 die Winkelinformation (α, β) als die berechneten Matrixe­ lementwerte M1-M6 erhält, um an einem Ausgang 76c die Adresse X', Y' des Bildebenenpixel bereitzustellen, das diesem Objektpixel X, Y, Z entspricht, wenn man es unter einem ausgewählten Betrachtungswinkel (θ, Φ) betrachtet. Die Information für den Betrachtungswinkel (θ, Φ) wird in das System eingegeben und von der CPU 74 verarbeitet. Die Ergeb­ nisse werden an die Eingänge 78b und 78c einer Sichtmatrix­ einrichtung 78 gegeben, um Matrixelemente M1-M6 an ihrem Ausgang 78a und damit an der Berechnungseinrichtung 76 für die Drehungsparameter vorzusehen. Die Pixeladresse X', Y' in der Bildebene erscheint an einem Adresseingang 80a eines Bildpufferspeichers, der als eine Bildebenenspeichereinrich­ tung 80 wirkt. Gleichzeitig erscheinen die von dem Datenvolu­ men zur Projektionsebene projizierten Intensitätsdaten vom Ausgang 70d der dreidimensionalen Datenspeichereinrichtung an dem Eingang 80b für neue Daten der Bildebenenspeichereinrich­ tung. Diese Daten erscheinen ebenfalls am Eingang 82a für neue Daten einer Datenvergleichseinrichtung 82. Zuvor in der Bildebenenspeichereinrichtung 80 für diese Adresse gespei­ cherte Intensitätsdaten am Eingang 80a erscheinen an einem Ausgang 80c für alte Daten und damit an einem Eingang 82b für alte Daten in der Vergleichseinrichtung. Die alten und neuen Daten an den jeweiligen Eingängen 82b/82a werden in der Einrichtung 82 verglichen, und ein Ausgang 82c davon wird auf einen ausgewählten logischen Zustand gesetzt (z. B. einen oberen logischen Pegel), wenn die neuen Daten am Eingang 82a eine größere Amplitude aufweisen als die alten Daten am Eingang 82b. Der Ausgang 82c ist mit einem Eingang 80d der Bildebenenspeichereinrichtung für Ersatz- (substitute) Steu­ erdaten verbunden um zu veranlassen, daß die unter der vom Eingang 80a gesteuerten Adresse gespeicherten Daten geändert werden, um neue Daten am Eingang 80b anzunehmen, wenn sich der Steuereingang für die Ersatzdaten 80d auf dem gewählten logischen Pegel befindet. Somit werden die gespeicherten Daten zu Anfang rückgesetzt, wie bei einem Signal durch einen Daten/Steuereingang 80e (von der CPU 74), und es werden die Daten mit dem größten Wert für jede Pixelstelle X', Y' in der Bildebene gespeichert, und zwar als Antwort auf einen Ver­ gleich, der anzeigt, ob die neuen Daten den Wert der zuvor gespeicherten alten Daten übersteigen. Nachdem alle der ausgewählten Adressen sequentiell vom Adressgenerator 72 abgetastet worden sind, werden die in der Bildebenenspei­ chereinrichtung 80 gespeicherten Daten in der CPU 74 ska­ liert, und die skalierten Bildebenendaten können von der Speichereinrichtung 80 zur Anzeige, zur permanenten Speiche­ rung oder zu ähnlichen Zwecken entnommen werden.
Gemäß einem weiteren Aspekt der Erfindung werden die skalier­ ten Bildebenendaten vor einer Anzeige (Display) kartiert (mapped), um eine gewünschte Helligkeit sowie einen gewünsch­ ten Kontrastbereich zu erzielen (Schritt 38 in Fig. 3). Gemäß dem bevorzugten Ausführungsbeispiel der Erfindung wird der Kontrast der projizierten Bilder durch die Hauptsteuerung eingestellt, indem eine eins-zu-eins-Kartierung der nicht eingestellten Pixelintensitätsdaten in eingestellte Pixelin­ tensitätsdaten hervorgerufen wird. Obwohl die Kartierung (Mapping) auf der Basis von Pixelintensitätsdaten von entwe­ der einem Quellbild (-frame) oder einem projizierten Bild generiert werden kann, wird in dem bevorzugten Ausführungs­ beispiel die Kartierung unter Verwendung der ersten (d. h. 0°) Projektionsbilddaten generiert.
Um die Kontrasteinstellungskartierung zu generieren, kompi­ liert die Hauptsteuerung ein Säulendiagramm von der Anzahl der Pixel in dem projizierten Bild mit einer Intensität innerhalb eines von jedem einer Vielzahl von vorgeschriebenen Intensitätsbereichen oder -rahmen. Fig. 7A zeigt ein derar­ tiges Säulendiagramm für ein projiziertes Bild mit einer relativ hohe Intensität aufweisenden Pixeldaten; Fig. 8A zeigt ein derartiges Säulendiagramm für ein projiziertes Bild mit Pixeldaten, die eine relativ niedrige Intensität aufwei­ sen. Zur gleichen Zeit ermittelt die Hauptsteuerung die maximale Pixelintensität in dem Quell- oder projizierten Bild. Beginnend mit dem Rahmen (Bin), der die maximale Anzahl von Pixeln enthält, und indem dann die übrigen Rahmen in der Reihenfolge von abnehmenden Pixelzahlen hinzuaddiert werden, wird die Anzahl von Pixeln in jedem Intensitätsbereich oder -rahmen aufaddiert, bis ein vorbestimmter Prozentsatz der Gesamtzahl von Pixeln in dem Bild erreicht ist. Wenn die gezählten Rahmen meistens Pixel mit einer relativ hohen Intensität enthalten (wie es in Fig. 7A gezeigt ist), wird die untere Grenze des die kleinste Intensität aufweisenden Rahmens, der in der Zählung enthalten ist, der Pixelintensi­ täts-Schwellenwert. Wenn umgekehrt die gezählten Rahmen meistens Pixel mit einer relativ niedrigen Intensität enthal­ ten (wie es in Fig. 8A gezeigt ist), wird die obere Grenze des die höchste Intensität aufweisenden Rahmens, der in der Zählung enthalten ist, der Pixelintensitäts-Schwellenwert. In jedem Fall wird dann eine eins-zu-eins-Kartierung (Mapping) erzeugt, so daß der Bereich der Intensitätswerte oberhalb oder unterhalb des Pixelintensitäts-Schwellenwertes linear korreliert ist zu einem expandierten Displayintensitäts-Werte­ bereiches von z. B. 0 bis 255 im Falle von 8-Bit Intensi­ tätswerten. Die aus dem Säulendiagramm gemäß Fig. 7A abge­ leitete Kartierung ist in Fig. 7B gezeigt; die von dem Säulendiagramm gemäß Fig. 8A abgeleitete Kartierung ist in Fig. 8B gezeigt.
In dem erfindungsgemäßen Verfahren wird der Kontrast von jedem projizierten Bild automatisch eingestellt, wobei die Kartierung verwendet wird, die aus dem Pixelintensitäts-Säulen­ diagramm generiert ist, bevor die Hauptsteuerung jedes projizierte Bild in den Filmspeicher schreibt. Beispielsweise werden für das eine hohe Intensität aufweisende projizierte Bild, das in Fig. 7A gezeigt ist, die projizierten Pixelda­ ten mit Intensitätswerten innerhalb des Bereiches von etwa 165 bis 250 in Displayintensitätswerte kartiert oder trans­ formiert, die in einem Bereich von 0 bis 255 liegen, wie es durch die schräge gerade Linie in Fig. 7B gezeigt ist. In ähnlicher Weise werden für das eine kleine Intensität aufwei­ sende projizierte Bild, das in Fig. 8A dargestellt ist, die projizierten Pixeldaten mit Intensitätswerten innerhalb des Bereiches von etwa 0 bis 80 in Displayintensitätswerte kar­ tiert oder transformiert, die in einem Bereich von 0 bis 255 liegen, wie es durch die gestrichelte gerade Linie in Fig. 8B gezeigt ist. Es wird deutlich, daß sich der Eingangsbe­ reich für die Kartierung ändert in Abhängigkeit von dem Bereich der gezählten Rahmen in dem entsprechenden Säulendia­ gramm, das von dem bestimmten Bild abgeleitet ist. Die Pi­ xeldaten mit Intensitätswerten außerhalb des Kartierungsein­ gabebereiches werden unberücksichtigt gelassen. Indem somit der Kontrast von den Pixelintensitätsdaten von größtem Inter­ esse vergrößert wird und die Pixelintensitätsdaten von ge­ ringstem Interesse aussortiert werden, werden die Pixelinten­ sitätsdaten für jedes projizierte Bild mit dem gewünschten Helligkeits- und Kontrastbereich oberhalb oder unterhalb des Pixelschwellenwertes kartiert. Die Kontrast-eingestellten Pixelintensitätsdaten werden dann zu dem Filmspeicher für eine nachfolgende Darstellung zurückgeleitet.
Die Projektionstechnik wird separat angewendet auf die B-Mode-Intensitätsdaten sowie die Farbströmungsgeschwindig­ keits- oder Energie(power)-Daten für das interessierende von dem Filmspeicher wiedergegebene Datenvolumen. Jedes Pixel in dem projizierten Bild schließt die transformierten Intensi­ tätsdaten und die transformierten Geschwindigkeits- oder Energiedaten ein, welche durch Projektion auf eine vorgegebe­ ne Bildebene abgeleitet wurden. Zusätzlich speicherte während der Zeit, in welcher der Filmspeicher vom Bediener "eingefroren" war, die CPU 42 optional das letzte Bild (frame) aus dem XY Speicher 18 unter mehrfachen aufeinander­ folgenden Adressen im Abschnitt 24B des Filmspeichers 24. Die projizierten Bilddaten für den ersten projizierten Betrach­ tungswinkel werden in die erste Adresse im Filmspeicherab­ schnitt 24B eingeschrieben, so daß die projizierten Bilddaten in einem interessierenden Bereich dem Hintergrundbild (background frame) überlagert werden. Dieser Prozeß wird für jede Winkelzunahme wiederholt bis alle projizierten Bilder im Filmspeicherabschnitt 24B gespeichert sind, wobei jeder projizierte Bildrahmen aus einem interessierenden Gebiet besteht, das transformierte Daten und als Option einen Peri­ pheriehintergrund enthält, der das interessierende Gebiet umgibt und aus Hintergrundbilddaten besteht, die nicht von transformierten Daten aus dem interessierenden Gebiet über­ schrieben sind. Das Hintergrundbild macht es deutlicher, von wo aus jede zur Darstellung gebrachte Projektion betrachtet wird. Der Bediener kann dann jedes projizierte Bild für die Darstellung auswählen. Zusätzlich kann die Abfolge der proji­ zierten Bilder erneut auf dem Displaymonitor abgespielt werden, um das Objektvolumen so darzustellen, als wenn es vor dem Betrachter rotieren würde.
Gemäß einer bevorzugten Ausführung der Erfindung besitzt das Ultraschall-Bildgebungssystem mehrere verschiedene Projekti­ onsmoden. Beispielsweise kann die Projektion Maximalwert- oder Minimalwert-Pixel enthalten. Alternativ kann ein für die Darstellung von Blutgefäßen nützlicher Mode ausgewählt wer­ den, bei dem die Pixeldaten invertiert und dann die Maximal­ werte auf die Bildebene projiziert werden. Gemäß einem weite­ ren Modus kann die Strahlwurftechnik eingesetzt werden, um eine Oberflächenwiedergabe (Oberflächen-Rendering) zu lie­ fern.
Die vorstehenden bevorzugten Ausführungsbeispiele wurden zum Zwecke der Veranschaulichung beschrieben. Abänderungen und Modifikationen des Grundkonzepts der Erfindung werden sich unschwer für Fachleute auf dem Gebiet der Ultraschall-Bild­ gebung oder der Computergrafik ergeben. Alle derartigen Abänderungen und Modifikationen sollen durch die nachfolgend aufgeführten Ansprüche mitumfaßt werden.

Claims (20)

1. Einrichtung zur dreidimensionalen Bildgebung von einem Ultraschall-streuenden Medium in einem Objektvolumen, enthaltend:
ein Ultraschall-Wandler-Array zum Aussenden von Ultra­ schall-Bündeln und zum Erfassen von Ultraschall-Echos, die durch eine Vielzahl von Sample- bzw. Probevolumen in dem Objektvolumen reflektiert werden;
eine Einrichtung zum Gewinnen von Pixelintensitätsda­ ten, die von Ultraschall-Echos abgeleitet werden, die durch das streuende Medium reflektiert werden, wobei jedes Pixelintensitätsdatum einem entsprechenden aus einer Vielzahl von Sample- bzw. Probevolumen ent­ spricht;
eine Speichereinrichtung zum Speichern gewonnener Pixe­ lintensitätsdaten für jedes der vielen Sample- bzw. Probevolumen;
eine Einrichtung zum Wiedergeben eines Satzes von Pixe­ lintensitätsdaten aus der Speichereinrichtung, die ei­ nem interessierenden Volumen in dem Objektvolumen ent­ sprechen;
eine Einrichtung zum Projizieren des Pixelintensitäts-Daten­ satzes entsprechend dem interessierenden Volumen auf eine Bildebene, wodurch ein projizierter Pixelin­ tensitäts-Datensatz gebildet wird, der ein projiziertes Bild darstellt;
eine Einrichtung zum Übertragen bzw. Transformieren des projizierten Pixelintensitäts-Datensatzes, um ein Kon­ trast-eingestelltes projiziertes Bild darzustellen; einen Displaymonitor und
eine Einrichtung zum Darstellen des Kontrast-einge­ stellten projizierten Bildes auf dem Displaymonitor.
2. Einrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Transformationseinrichtung enthält:
eine Einrichtung zum Nullen der Intensitätswerte des projizierten Pixelintensitäts-Datensatzes, der in einem ersten Intensitätsbereich liegt; und
eine Einrichtung zum Übertragen bzw. Transformieren der intensitätswerte des projizierten Pixelintensitäts-Daten­ satzes, der in einem zweiten Intensitätsbereich liegt, in Kontrast-eingestellte Intensitätswerte, die in einem dritten Intensitätsbereich liegen, gemäß einer linearen Kartierung (Mapping), wobei die ersten und zweiten Intensitätsbereiche an einem Pixelintensitäts-Schwellen­ wert zusammenhängen und der dritte Intensi­ tätsbereich breiter als der zweite Intensitätsbereich ist und diesen überlappt, wobei die Kontrast­ eingestellten Intensitätswerte einen kartierten proji­ zierten Pixelintensitäts-Datensatz bilden, der das Kon­ trast-eingestellte projizierte Bild darstellt.
3. Einrichtung nach Anspruch 2, dadurch gekennzeichnet, daß der zweite intensitätsbereich Intensitätswerte ent­ hält, die größer als die Intensitätswerte in dem ersten Intensitätsbereich sind.
4. Einrichtung nach Anspruch 2, dadurch gekennzeichnet, daß der zweite Intensitätsbereich Intensitätswerte ent­ hält, die kleiner als die Intensitätswerte in dem er­ sten Intensitätsbereich sind.
5. Einrichtung nach Anspruch 2, gekennzeichnet durch eine Einrichtung zum Zählen der Anzahl von Pixeln in dem projizierten Pixelintensitäts-Datensatz mit einem In­ tensitätsbereich, der in jedem von einer Vielzahl von intensitäts-Unterbereichen liegt, wobei der erste In­ tensitätsbereich einen ersten Satz der Vielzahl von In­ tensitäts-Unterbereichen enthält und der zweite Inten­ sitätsbereich einen zweiten Satz einschließt und den ersten Satz der Vielzahl von Intensitäts-Unterbereichen ausschließt.
6. Einrichtung nach Anspruch 5, gekennzeichnet durch eine Einrichtung zum Ermitteln des Pixelintensitäts-Schwellen­ wertes als Antwort auf den Zählwert, der gleich einer vorbestimmten Zahl ist, und eine Einrichtung zum Erzeugen der linearen Kartierung (Mapping) als eine Funktion des Pixelintensitäts-Schwellen­ wertes.
7. Einrichtung nach Anspruch 2, gekennzeichnet durch eine Einrichtung zum Zählen der Anzahl von Pixeln in dem Pi­ xelintensitäts-Datensatz mit einem Intensitätsbereich, der in jedem von einer Vielzahl von Intensitäts-Unter­ bereichen liegt, wobei der erste Intensitätsbe­ reich einen ersten Satz der Vielzahl von Intensitäts­ unterbereichen enthält und der zweite Intensitätsbe­ reich einen zweiten Satz einschließt und den ersten Satz der Vielzahl von Intensitäts-Unterbereichen aus­ schließt.
8. Einrichtung nach Anspruch 7, gekennzeichnet durch eine Einrichtung zum Ermitteln des Pixelintensitäts-Schwellen­ wertes als Antwort auf den Zählwert, der gleich einer vorbestimmten Zahl ist, und eine Einrichtung zum Erzeugen der linearen Kartierung (Mapping) als eine Funktion des Pixelintensitäts-Schwellen­ wertes.
9. Verfahren zur dreidimensionalen Bildgebung von einem Ultraschall-streuenden Medium in einem Objektvolumen, enthaltend die Schritte:
Aussenden von Ultraschall-Bündeln in einer Scan- bzw. Abtastebene, die das Objektvolumen an einer Vielzahl von Sample- bzw. Probevolumen in der Abtastebene schneidet;
Erfassen von Ultraschall-Echos, die von der Vielzahl von Sample- bzw. Probevolumen in der Abtastebene re­ flektiert werden;
Abtasten der Abtastebene durch das Objektvolumen;
Gewinnen von Pixelintensitätsdaten, die von Ultra­ schall-Echos abgeleitet werden, die durch das streuende Medium reflektiert werden, wobei jedes Pixelintensi­ tätsdatum einem entsprechenden einer Vielzahl von Samp­ le- bzw. Probevolumen entspricht;
Speichern gewonnener Pixelintensitätsdaten für jedes der vielen Sample- bzw. Probevolumen;
Wiederherstellen eines Satz von Pixelintensitätsdaten aus den gespeicherten gewonnenen Pixelintensitätsdaten, wobei jeder Pixelintensitäts-Datensatz einem interes­ sierenden Volumen in dem Objektvolumen entspricht;
Projizieren des Pixelintensitäts-Datensatzes auf eine Bildebene, wodurch ein projizierter Pixelintensitäts-Daten­ satz gebildet wird, der ein projiziertes Bild dar­ stellt;
Übertragen bzw. Transformieren des projizierten Pixe­ lintensitäts-Datensatzes, um ein Kontrast-eingestelltes projiziertes Bild darzustellen; und
bildliches Darstellen des Kontrast-eingestellten proji­ zierten Bildes.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, daß der Transformationsschritt die Schritte enthält:
Nullen der Intensitätswerte des projizierten Pixelin­ tensitäts-Datensatzes, der in einem ersten Intensitäts­ bereich liegt, und
Transformieren der Intensitätswerte von dem projizier­ ten Pixelintensitäts-Datensatz, der in einem zweiten Intensitätsbereich liegt, in Kontrast-eingestellte In­ tensitätswerte, die in einem dritten Intensitätsbereich liegen, gemäß einer linearen Kartierung (Mapping), wo­ bei die ersten und zweiten Intensitätsbereiche an einem Pixelintensitäts-Schwellenwert zusammenhängen und wobei der dritte Intensitätsbereich breiter als der zweite Intensitätsbereich ist und diesen überlappt, wobei die Kontrast-eingestellten Intensitätswerte, die einen kar­ tierten projizierten Pixelintensitäts-Datensatz bilden, das Kontrast-eingestellte projizierte Bild darstellen.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß der zweite Intensitätsbereich Intensitätswerte enthält, die größer als die Intensitätswerte in dem ersten In­ tensitätsbereich sind.
12. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß der zweite Intensitätsbereich Intensitätswerte enthält, die kleiner als die Intensitätswerte in dem ersten In­ tensitätsbereich sind.
13. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß die Anzahl von Pixeln in dem projizierten Pixelintensi­ täts-Datensatz mit einem Intensitätsbereich, der in je­ dem einer Vielzahl von Intensitäts-Unterbereichen liegt, gezählt wird, wobei der erste Intensitätsbereich einen ersten Satz der Vielzahl von Intensitäts-Unter­ bereichen enthält und der zweite Intensitätsbe­ reich einen zweiten Satz einschließt und den ersten Satz der Vielzahl von Intensitäts-Unterbereichen aus­ schließt.
14. Verfahren nach Anspruch 13, gekennzeichnet durch die Schritte:
Ermitteln des Pixelintensitäts-Schwellenwertes bei ei­ nem Zählwert, der gleich einer vorbestimmten Zahl ist, und
Erzeugen der linearen Kartierung (Mapping) als eine Funktion des Pixelintensitäts-Schwellenwertes.
15. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß die Anzahl von Pixeln in einem Untersatz von dem Pixe­ lintensitäts-Datensatz gezählt wird, der dem interes­ sierenden Volumen mit einem Intensitätsbereich ent­ spricht, der in jedem von einer Vielzahl von Intensi­ täts-Unterbereichen liegt, wobei der erste Intensitäts­ bereich einen ersten Satz der vielen Intensitäts-Unter­ bereiche enthält und der zweite Intensitätsbereich einen zweiten Satz einschließt und den ersten Satz der vielen Intensitäts-Unterbereiche ausschließt.
16. Verfahren nach Anspruch 15, gekennzeichnet durch die Schritte:
Ermitteln des Pixelintensitäts-Schwellenwertes bei dem Zählwert, der gleich einer vorbestimmten Zahl ist, und
Erzeugen der linearen Kartierung (Mapping) als eine Funktion des Pixelintensitäts-Schwellenwertes.
17. Verfahren zur dreidimensionalen Bildgebung von einem Ultraschall-streuenden Medium in einem Objektvolumen, enthaltend die Schritte:
Aussenden von Ultraschall-Bündeln in einer Abtast- bzw. Scanebene, die das Objektvolumen an einer Vielzahl von Sample- bzw. Probevolumen in der Abtastebene schneidet;
Erfassen von Ultraschall-Echos, die von der Vielzahl von Sample- bzw. Probevolumen in der Abtastebene re­ flektiert werden;
Abtasten der Abtastebene durch das Objektvolumen an ei­ ner Vielzahl von Abtastpositionen;
Gewinnen einer Vielzahl von Untersätzen von Pixelinten­ sitätsdaten, die von Ultraschall-Echos abgeleitet wer­ den, die durch das streuende Medium in entsprechenden Ebenen reflektiert werden, die durch die Abtastpositio­ nen der Abtastebene definiert sind, wobei jeder Unter­ satz von Pixelintensitätsdaten ein entsprechendes In­ tensitätsdatenbild (Frame) bildet;
Speichern der Vielzahl von Intensitätsdatenbildern;
Wiedergeben eines entsprechenden Untersatzes von Pixel­ intensitätsdaten, die einem interessierenden Bereich entsprechen, aus gewählten aufeinanderfolgenden gespei­ cherten Intensitätsdatenbildern, wobei die Pixelinten­ sitäts-Datenuntersätze, die einen Pixelintensitäts- Datensatz bilden, einem interessierenden Volumen in dem Objektvolumen entsprechen;
Projizieren des Pixelintensitäts-Datensatzes auf eine Bildebene, wodurch ein projizierter Pixelintensitäts-Daten­ satz gebildet wird, der ein projiziertes Bild dar­ stellt;
Transformieren des projizierten Pixelintensitäts-Daten­ satzes, um ein Kontrast-eingestelltes projiziertes Bild darzustellen; und
bildliches Darstellen eines Bildes, das das Kontrast­ eingestellte projizierte Bilde aufweist, das auf einem zentralen Bereich von einem gewählten der Vielzahl von Intensitätsdatenbildern (Frames) überlagert ist.
18. Verfahren nach Anspruch 17, dadurch gekennzeichnet, daß der Transformationsschritt die Schritte enthält:
Nullen der Intensitätswerte des projizierten Pixelin­ tensitäts-Datensatzes, der in einem ersten Intensitäts­ bereich liegt, und
Transformieren der Intensitätswerte des projizierten Pixelintensitäts-Datensatzes, der in einem zweiten In­ tensitätsbereich liegt, in Kontrast-eingestellte Inten­ sitätswerte, die in einem dritten Intensitätsbereich liegen, gemäß einer linearen Kartierung (Mapping), wo­ bei die ersten und zweiten Intensitätsbereiche an einem Pixelintensitäts-Schwellenwerte zusammenhängen und wo­ bei der dritte Intensitätsbereich breiter ist als der zweite Intensitätsbereich und diesen überlappt, wobei die Kontrast-eingestellten Intensitätswerte einen kar­ tierten, projizierten Pixelintensitäts-Datensatz bil­ den, der das Kontrast-eingestellte projizierte Bild darstellt.
19. Verfahren nach Anspruch 18, dadurch gekennzeichnet, daß die Anzahl von Pixeln in dem projizierten Pixelintensi­ täts-Datensatz mit einem Intensitätsbereich gezählt wird, der in jedem von einer Vielzahl von Intensitäts-Unter­ bereichen liegt, wobei der erste Intensitätsbe­ reich einen ersten Satz aus der Vielzahl von Intensi­ täts-Unterbereichen einschließt und der zweite Intensi­ tätsbereich einen zweiten Satz einschließt und den er­ sten Satz der vielen Intensitäts-Unterbereiche aus­ schließt.
20. Verfahren nach Anspruch 19, gekennzeichnet durch die Schritte:
Ermitteln des Pixelintensitäts-Schwellenwertes bei ei­ nem Zählwert, der gleich einer vorbestimmten Zahl ist, und
Erzeugen der linearen Kartierung (Mapping) als eine Funktion des Pixelintensitäts-Schwellenwertes.
DE19819800A 1997-05-07 1998-05-04 Verfahren und Einrichtung zum automatischen Verbessern des Kontrastes in projizierten Ultraschallbildern Ceased DE19819800A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US08/852,772 US5954653A (en) 1997-05-07 1997-05-07 Method and apparatus for automatically enhancing contrast in projected ultrasound image

Publications (1)

Publication Number Publication Date
DE19819800A1 true DE19819800A1 (de) 1998-12-03

Family

ID=25314174

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19819800A Ceased DE19819800A1 (de) 1997-05-07 1998-05-04 Verfahren und Einrichtung zum automatischen Verbessern des Kontrastes in projizierten Ultraschallbildern

Country Status (4)

Country Link
US (1) US5954653A (de)
JP (1) JP4155618B2 (de)
DE (1) DE19819800A1 (de)
IL (1) IL124164A (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000040996A1 (en) * 1998-12-31 2000-07-13 General Electric Company Ultrasound color flow display optimization by adjusting color maps
WO2002081817A1 (en) * 2001-03-20 2002-10-17 Runtech Systems Oy Apparatus and method for treating roll surfaces and/or fabrics
DE10141724A1 (de) * 2001-08-25 2003-03-06 Brueel & Kjaer Vibro Gmbh Verfahren zur Darstellung eines Histogramms auf einer Rasteranzeige
EP0996002A3 (de) * 1998-10-19 2003-07-16 General Electric Company System und Verfahren zur Randverstärkung in Ultraschall- Bilderzeugung
US6979295B2 (en) 2003-11-19 2005-12-27 Ge Medical Systems Global Technology Company, Llc Automatic color gain adjustments
WO2008044173A1 (en) * 2006-10-13 2008-04-17 Koninklijke Philips Electronics N.V. 3d ultrasonic color flow imaging with grayscale invert
DE102009058887A1 (de) * 2009-12-18 2011-06-22 Daimler AG, 70327 Anzeigeverfahren und Anzeigevorrichtung für ein Fahrzeug und betreffendes Computerprogrammprodukt

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11164833A (ja) * 1997-09-30 1999-06-22 Toshiba Corp 医用画像診断装置
JP3218216B2 (ja) * 1998-03-20 2001-10-15 アロカ株式会社 三次元画像処理装置
EP0973128B1 (de) * 1998-06-22 2003-06-11 Texas Instruments Incorporated Selektive Helligkeitserweiterung
US6734904B1 (en) * 1998-07-23 2004-05-11 Iteris, Inc. Imaging system and method with dynamic brightness control
US6048313A (en) * 1998-09-17 2000-04-11 Stonger; Kelly A. Method and apparatus for fractal-based enhancement of ultrasound imaging
US6102861A (en) * 1999-04-23 2000-08-15 General Electric Company Method and apparatus for three-dimensional ultrasound imaging using surface-enhanced volume rendering
US6413219B1 (en) 1999-03-31 2002-07-02 General Electric Company Three-dimensional ultrasound data display using multiple cut planes
JP4408988B2 (ja) * 1999-05-31 2010-02-03 株式会社東芝 超音波診断装置
US6434260B1 (en) * 1999-07-12 2002-08-13 Biomedicom, Creative Biomedical Computing Ltd. Facial imaging in utero
US6476810B1 (en) * 1999-07-15 2002-11-05 Terarecon, Inc. Method and apparatus for generating a histogram of a volume data set
US6542626B1 (en) * 1999-11-05 2003-04-01 General Electric Company Method and apparatus for adapting imaging system operation based on pixel intensity histogram
US6398733B1 (en) 2000-04-24 2002-06-04 Acuson Corporation Medical ultrasonic imaging system with adaptive multi-dimensional back-end mapping
US6579238B1 (en) 2000-04-24 2003-06-17 Acuson Corporation Medical ultrasonic imaging system with adaptive multi-dimensional back-end mapping
JP3898047B2 (ja) * 2001-07-09 2007-03-28 セイコーインスツル株式会社 血液レオロジー測定装置
US7092558B2 (en) * 2002-08-14 2006-08-15 General Electric Company Automated optimization of medical 3D visualizations
US20050053305A1 (en) * 2003-09-10 2005-03-10 Yadong Li Systems and methods for implementing a speckle reduction filter
US7275547B2 (en) * 2003-10-08 2007-10-02 Boston Scientific Scimed, Inc. Method and system for determining the location of a medical probe using a reference transducer array
US20050110793A1 (en) * 2003-11-21 2005-05-26 Steen Erik N. Methods and systems for graphics processing in a medical imaging system
JP4564286B2 (ja) * 2004-06-14 2010-10-20 株式会社東芝 3次元超音波画像化装置
US7627386B2 (en) * 2004-10-07 2009-12-01 Zonaire Medical Systems, Inc. Ultrasound imaging system parameter optimization via fuzzy logic
US8834371B2 (en) * 2005-03-31 2014-09-16 Kabushiki Kaisha Toshiba Ultrasound diagnostic apparatus and ultrasound image processing program
US8784318B1 (en) 2005-07-22 2014-07-22 Zonare Medical Systems, Inc. Aberration correction using channel data in ultrasound imaging system
US8002705B1 (en) 2005-07-22 2011-08-23 Zonaire Medical Systems, Inc. Continuous transmit focusing method and apparatus for ultrasound imaging system
US20070038106A1 (en) 2005-07-27 2007-02-15 Medison Co., Ltd. Ultrasound diagnostic system and method of automatically controlling brightness and contrast of a three-dimensional ultrasound image
JP4740695B2 (ja) * 2005-08-26 2011-08-03 株式会社日立メディコ 超音波診断装置
JP5226181B2 (ja) * 2005-11-24 2013-07-03 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 画像診断装置
US7796830B2 (en) * 2006-08-15 2010-09-14 Nokia Corporation Adaptive contrast optimization of digital color images
JP4881112B2 (ja) * 2006-09-19 2012-02-22 株式会社東芝 超音波診断装置及び画像データ生成方法
US20080146922A1 (en) * 2006-10-24 2008-06-19 Zonare Medical Systems, Inc. Control of user interfaces and displays for portable ultrasound unit and docking station
US20080242988A1 (en) * 2007-03-28 2008-10-02 Tetsuya Yoshida Ultrasound diagnostic apparatus, ultrasound image processing apparatus, and ultrasound image processing method
US9060669B1 (en) 2007-12-20 2015-06-23 Zonare Medical Systems, Inc. System and method for providing variable ultrasound array processing in a post-storage mode
JP5072585B2 (ja) * 2007-12-27 2012-11-14 株式会社東芝 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
US20100036727A1 (en) * 2008-08-07 2010-02-11 Sarelson Seth H Method of Tracking the Impact of Paid Search on Offline Sales
KR102185726B1 (ko) * 2014-01-28 2020-12-02 삼성메디슨 주식회사 관심 영역에 대응하는 초음파 영상 표시 방법 및 이를 위한 초음파 장치
US9842424B2 (en) * 2014-02-10 2017-12-12 Pixar Volume rendering using adaptive buckets
JP6938763B2 (ja) * 2017-08-23 2021-09-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ドップラー超音波信号からの胎児運動検出法
EP3466344A1 (de) * 2017-10-03 2019-04-10 Koninklijke Philips N.V. Fötusbewegungsdetektionsverfahren aus doppler-ultraschallsignalen
US11771399B2 (en) 2018-02-07 2023-10-03 Atherosys, Inc. Apparatus and method to guide ultrasound acquisition of the peripheral arteries in the transverse plane
EP3787480A4 (de) 2018-04-30 2022-01-26 Atherosys, Inc. Verfahren und vorrichtung zur automatischen detektion von atheromen in peripheren arterien
WO2020011589A1 (en) * 2018-07-11 2020-01-16 Koninklijke Philips N.V. Ultrasound imaging system with pixel extrapolation image enhancement

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5226113A (en) * 1989-10-30 1993-07-06 General Electric Company Method and apparatus for volumetric projection rendering using reverse ray casting
GB9025431D0 (en) * 1990-11-22 1991-01-09 Advanced Tech Lab Three dimensional ultrasonic imaging
US5469849A (en) * 1993-06-14 1995-11-28 Kabushiki Kaisha Toshiba Ultrasound diagnosis apparatus
US5456255A (en) * 1993-07-12 1995-10-10 Kabushiki Kaisha Toshiba Ultrasonic diagnosis apparatus
US5365929A (en) * 1993-10-04 1994-11-22 Advanced Technology Laboratories, Inc. Multiple sample volume spectral Doppler
US5474073A (en) * 1994-11-22 1995-12-12 Advanced Technology Laboratories, Inc. Ultrasonic diagnostic scanning for three dimensional display
US5485842A (en) * 1994-11-30 1996-01-23 Advanced Technology Laboratories, Inc. Ultrasonic diagnostic scan conversion for three dimensional display processing
JP3406106B2 (ja) * 1995-02-06 2003-05-12 ジーイー横河メディカルシステム株式会社 超音波画像表示方法および超音波診断装置
US5655535A (en) * 1996-03-29 1997-08-12 Siemens Medical Systems, Inc. 3-Dimensional compound ultrasound field of view
JP2001504603A (ja) * 1995-06-15 2001-04-03 ザ・リージエント・オブ・ザ・ユニバーシテイ・オブ・ミシガン 二次元超音波から三次元画像を構成し表示する方法および装置
US5706816A (en) * 1995-07-17 1998-01-13 Aloka Co., Ltd. Image processing apparatus and image processing method for use in the image processing apparatus
US5582173A (en) * 1995-09-18 1996-12-10 Siemens Medical Systems, Inc. System and method for 3-D medical imaging using 2-D scan data
JP3407169B2 (ja) * 1995-10-12 2003-05-19 富士写真光機株式会社 超音波画像立体表示装置及び超音波画像立体表示方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0996002A3 (de) * 1998-10-19 2003-07-16 General Electric Company System und Verfahren zur Randverstärkung in Ultraschall- Bilderzeugung
WO2000040996A1 (en) * 1998-12-31 2000-07-13 General Electric Company Ultrasound color flow display optimization by adjusting color maps
WO2002081817A1 (en) * 2001-03-20 2002-10-17 Runtech Systems Oy Apparatus and method for treating roll surfaces and/or fabrics
DE10141724A1 (de) * 2001-08-25 2003-03-06 Brueel & Kjaer Vibro Gmbh Verfahren zur Darstellung eines Histogramms auf einer Rasteranzeige
DE10141724B4 (de) * 2001-08-25 2006-11-16 Brüel & Kjaer Vibro GmbH Verfahren zur Darstellung eines Histogramms auf einer Rasteranzeige
US6979295B2 (en) 2003-11-19 2005-12-27 Ge Medical Systems Global Technology Company, Llc Automatic color gain adjustments
WO2008044173A1 (en) * 2006-10-13 2008-04-17 Koninklijke Philips Electronics N.V. 3d ultrasonic color flow imaging with grayscale invert
DE102009058887A1 (de) * 2009-12-18 2011-06-22 Daimler AG, 70327 Anzeigeverfahren und Anzeigevorrichtung für ein Fahrzeug und betreffendes Computerprogrammprodukt

Also Published As

Publication number Publication date
JP4155618B2 (ja) 2008-09-24
IL124164A (en) 2000-06-29
US5954653A (en) 1999-09-21
JPH1147134A (ja) 1999-02-23

Similar Documents

Publication Publication Date Title
DE19819800A1 (de) Verfahren und Einrichtung zum automatischen Verbessern des Kontrastes in projizierten Ultraschallbildern
DE19819892B4 (de) Verfahren und Einrichtung zum Segmentieren von B-Mode-Intensitätsdaten unter Verwendung von Doppler-Verschiebungsdaten bei dreidimensionaler Ultraschall-Bildgebung
DE19819794A1 (de) Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Kombination von Intensitätsdaten mit Farbströmungsgeschwindigkeits- oder Energiedaten
DE19819831A1 (de) Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung mittels Projektion von gefilterten Pixeldaten
DE3686401T2 (de) Darstellung von stromlinien in inhomogenen medien.
DE19819832B4 (de) Verfahren zum Verbessern der Segmentierung bei einer dreidimensionalen Ultraschall-Bildgebung
DE69316780T2 (de) On-line-akustisches, densitometrisches Gerät für die Anwendung zur Ultraschallbilderfassung
DE69516816T2 (de) Ultraschall-Diagnostik mit Abtastumsetzung für dreidimensionale Anzeigeverarbeitung
DE69619262T2 (de) Dreidimensionales bildverarbeitungssystem
DE69706766T2 (de) Ultraschall-Diagnose-Vorrichtung und Verfahren zur Erzeugung von Ultraschall-Bildern mit der Vorrichtung
DE60309486T2 (de) Zwei-EBENEN ULTRASCHALLABBILDUNG MIT EINEM DIE GEGENSEITIGE EBENENORIENTIERUNG ABBILDENDEN SYMBOL
DE69931647T2 (de) Zoom- ultraschall- bilderzeugung mit verwendung von unabhängigen bearbeitungs- kanälen
DE19819801B4 (de) Verfahren und Einrichtung zur dreidimensionalen Ultraschall-Bildgebung unter Verwendung eines Wandlerarrays mit gleichförmiger Erhebungsbündelweite
DE69612148T2 (de) Ultraschall- Bildverarbeitungsvorrichtung und ein Verfahren zum Erzeugen eines Ultraschallbilds
DE69527409T2 (de) Diagnostische Ultraschall-Abtastung für dreidimensionale Anzeige
DE69936418T2 (de) Vorrichtung für dreidimensionale Ultraschall-Abbildung mit Kontrastmitteln und harmonischen Echos
DE69737720T2 (de) Verbessertes bildverarbeitungsverfahren für ein dreidimensionales bilderzeugungssystem
DE69727994T2 (de) Medizinisches Ultraschall Diagnose Bildsystem mit Abtastanzeige für eine dreidimensionale Bilddarstellung
DE3855040T2 (de) Bildverarbeitungsverfahren und -gerät
DE69736549T2 (de) System, verfahren und wandler zum ausrichten mehrerer ultraschallbilder
DE3689399T2 (de) Kubusteilungssystem und Verfahren zur Anzeige von im Innengebiet eines massiven Körpers enthaltenen Flächenstrukturen.
DE3872031T2 (de) Verfahren zum berechnen und zur wiedergabe von sichtbildern eines objektes.
EP0962785B1 (de) Verfahren zur Untersuchung von Objekten mit Ultraschall
DE19819793A1 (de) Verfahren und Einrichtung zum Segmentieren von Farbströmungs-Mode-Daten unter Verwendung von Geschwindigkeitsinformation bei der dreidimensionalen Ultraschall-Bildgebung
DE102005037806A1 (de) Verfahren und Vorrichtung zur Vergrösserung des Sichtfelds bei der Ultraschallbildgebung

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final

Effective date: 20140621