[go: up one dir, main page]

DE102004009143A1 - Randdetektion für eine medizinische Bildgebung - Google Patents

Randdetektion für eine medizinische Bildgebung Download PDF

Info

Publication number
DE102004009143A1
DE102004009143A1 DE102004009143A DE102004009143A DE102004009143A1 DE 102004009143 A1 DE102004009143 A1 DE 102004009143A1 DE 102004009143 A DE102004009143 A DE 102004009143A DE 102004009143 A DE102004009143 A DE 102004009143A DE 102004009143 A1 DE102004009143 A1 DE 102004009143A1
Authority
DE
Germany
Prior art keywords
edge
locations
function
image
gradient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102004009143A
Other languages
English (en)
Inventor
Liexang Issaquah Fan
Patrick L. von Bellevue Behren
Thilaka S. Los Altos Sumanaweera
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Medical Solutions USA Inc
Original Assignee
Siemens Medical Solutions USA Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Medical Solutions USA Inc filed Critical Siemens Medical Solutions USA Inc
Publication of DE102004009143A1 publication Critical patent/DE102004009143A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20116Active contour; Active surface; Snakes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Ein Verfahren und ein System (10) zum Detektieren eines Randes in einem medizinischen Bild werden geschaffen. Eine Begrenzung wird als geschlossene Kurve ausgewählt, deren Tangente im wesentlichen senkrecht zu dem Gradienten des Bildes überall entlang der Kurve ist. Gemäß einer Alternative zu der Tangente kann eine Normale oder eine andere Randrichtung verwendet werden. An einem gegebenen Punkt innerhalb des Bildes sind die Tangente zu der Begrenzung und die Bildgradientenrichtung orthogonal. Durch Verwendung einer Anfangsbegrenzungsdetektion (26) wird die Begrenzung bestimmt, die im Zusammenhang steht mit dem minimalen Aufwand (36, 46) oder mit der engsten Begrenzung, wo die Begrenzungstangente und die Bildgradientenrichtung orthogonal für Orte entlang der Begrenzung sind. Durch Verfeinerung eines Anfangsrandortes zur Minimierung der Divergenz von der Begrenzungstangente, die orthogonal zu der Bildgradientenrichtung ist, oder durch Bestimmen eines Randes, basierend auf einer orthogonalen Beziehung, kann eine genaue Randdetektion in Ultraschallbildern sowie in anderen medizinischen Bildern bereitgestellt werden.

Description

  • Die Erfindung betrifft eine Randdetektion für eine medizinische Bildgebung. Es werden beispielsweise Gefäßränder in medizinischen Ultraschallbildern aufgespürt, um die Gefäßbreite, IMT (intima-media thickness), die innere und äußere Begrenzung eines Fötalkopfes, den Rand eines Knochens, einer Herzkammer, einer Zyste oder irgendeines anderen abgebildeten Objekts zu bestimmen, welches einen unterscheidbaren Gradienten in der Nachbarschaft der Begrenzung aufweist.
  • Zur objektiven Analyse von medizinischen Bildern werden die Ränder der Gefäße bestimmt. Gemäß einem Ausführungsbeispiel gibt ein Benutzer den Rand ein, beispielsweise indem ein Touch Screen, ein Trackball oder eine Maus verwendet wird, um den Rand basierend auf einem angezeigten Bild einzuzeichnen. Eine automatische oder prozessorbasierte Randdetektion wird gemäß anderen Ausführungsbeispielen bereitgestellt. Die Intensität der Bilder wird Schwellenwerten unterworfen, um Orte der Gefäßwand gegenüber Orte innerhalb des Gefäßes zu ermitteln. Gemäß einem anderen Beispiel können bestimmte identifizierte Stellen entlang eines Randes für eine Curve-Fitting Berechnung verwendet werden, um den Rand darzustellen.
  • Ein Algorithmustyp zur Randdetektion basiert auf der Marr-Theorie. Der Nulldurchgang der zweiten Ableitung der Bildsignale entspricht dem Rand der Objekte. Ein Filter entfernt Rauschen in dem Bild. Die zweite Ableitung des gefilterten Bildes wird bestimmt. Die Nulldurchgangspunkte des Bildes zweiter Ableitung werden als potentielle Randpixel ermittelt. Durch Kombination dieser drei Schritte wird ein auf der Marr-Theorie basierter Rand als die Nullgänge des Laplaceschen des Gaußoperators definiert (also die Gaußfunktion verhält sich als Tiefpassfilter), der für das Bild für verschiedene Sigmawerte verwendet wird, die Standardabweichung der Gaußfunktion. Wenn keine mehrdeutigen Verbindungen zwischen unabhängig detektierten Rändern möglich sind, bestimmen diese verbundenen Randpunkt die Begrenzung.
  • Ein anderer Algorithmustyp zur Randdetektion ist die Canny-Randdetektion. Die Canny-Randdetektion basiert auf dem Extremwert der ersten Ableitung des Gaußoperators, der für das Bild für verschiedene Sigmawerte verwendet wird (Standardabweichung der Gaußfunktion).
  • Die Canny-Verfahren verwenden zwei Schwellenwerte, um Randpunkte zu verbinden. Diese Randpunkte sind die ermittelten potentiellen Begrenzungspunkte. Wenn keine lokalen Extremwerte vorhanden sind, wird nur der absolute Extremwert detektiert und dieser ist die Begrenzung.
  • Noch ein weiterer Algorithmustyp zur Randdetektion ist ein verformbares Modell und eine aktive Kontur (beispielsweise ein Schlangenmodell oder auch „Snake Model" genannt). Das verformbare Modell ist eine Spline oder eine Fläche mit geregelter Kontinuität. Die Energieausdrücke (Energy Terms) steuern die Bewegung der Punkte in dem Modell. Diese Energieausdrücke umfassen das Innere (also die Kontinuität des Modells), das Äußere (also die Bildinformation, beispielsweise in Form eines Bildgradienten), und einige andere Bedingungen, die von Benutzern eingestellt werden. Durch Minimieren der Energie (auch als Kostenfunktion oder Aufwandfunktion bezeichnet), wird die Endposition der Kontur definiert. Diese Kontur ist dann die definierte Begrenzung.
  • Ein anderer Algorithmustyp ist das Level-Set-Verfahren. Das Level-Set-Verfahren behandelt die aktive Kontur als die Nullwerteinstellung einer Oberfläche höherer Dimension. Die gesamte Oberfläche entwickelt sich, um eine Metrik zu minimieren, die durch den Bildgradienten und die Krümmung definiert ist.
  • Ein anerkanntes Verfahren zur Bestimmung einer Begrenzung in einem medizinischen bildgebenden System ist das verformbare Modell. Das Wesen dieses Verfahrens liegt darin, eine Aufwandfunktion zu erstellen und eine Anfangsbegrenzung bis zu einer Endbegrenzung zu entwickeln, die mit einem minimalen Aufwandwert in Zusammenhang steht. Unglücklicherweise sind die Ausdrücke, die für die Aufwandfunktion entwickelt sind, mehr oder weniger subjektiv.
  • Diese automatisierten Techniken können jedoch Schwierigkeiten haben mit Flecken oder einem anderen Rauschen in einem Ultraschallbild. Ebenso kann ein automatisches Verfahren auf bestimmte Typen von Bildgebungssituationen (Imaging Situationen) beschränkt sein, beispielsweise nur auf das Erkennen eines Randes in einem Bild, in dem lediglich ein Querschnitt oder nur eine Längsansicht des Gefäßes dargestellt ist. Das Erfassen einer bestimmten Ansicht der Längs- oder Querschnittsansicht von bestimmten Gefäßen kann schwierig sein, aufgrund der beschränkte akustischen Fenster in dem Körper.
  • Die Erfindung wird durch die beigefügten Ansprüche definiert, und dieser Abschnitt soll nicht als Beschränkung dieser Patentansprüche angesehen werden. Die bevorzugten Ausführungsbeispiele, die im folgenden beschrieben werden, enthalten Verfahren und Systeme zum Detektieren eines Randes in einem medizinischen Bild. Das Verfahren vereinigt das Regionwachsen (Region Growing), die automatische Identifikation der Region, die von Interesse ist, und Randdetektionsverfahren. Eine Begrenzung wird ausgewählt, um eine geschlossene Kurve zu sein, deren Tangente im wesentlichen oder ungefähr senkrecht zum Gradienten des Bildinhaltes ist, überall entlang der Kurve. Alternativ zu einer Tangente kann eine Normale (Lotrechte) oder eine andere Randrichtung verwendet werden. An einem gegebenen Punkt innerhalb des Bildes sind die Tangente zu der Grenze und die Bildgradientenrichtung im wesentlichen orthogonal. Durch Verwendung einer Anfangsranddetektion wird die Begrenzung ermittelt, die mit minimalen Aufwand oder mit der naheliegendsten Begrenzung in Zusammenhang steht, wo die Randtangente und die Bildgradientenrichtung im wesentlichen für Orte entlang der Begrenzung orthogonal sind. Durch Verfeinern eines Anfangsrandortes, um die Divergenz von der Begrenzungstagente zu minimieren, die orthogonal zu der Bildgradientenrichtung ist, oder durch Ermitteln eines Randes basierend auf der orthogonalen Beziehung, kann eine genaue Randdetektion in Ultraschallbildern sowie in anderen medizinischen Bildern erhalten werden.
  • Die Randdetektion kann auch zu einer Oberflächendetektion erweitert werden, beispielsweise auf die Oberfläche des Gefäßes, oder des Herzens oder der Herzkammern, oder des Fötalkopfes, oder auf irgendeine andere Oberfläche, die einen unterscheidbaren Gradienten in der Nachbarschaft der Begrenzung aufweist. Gemäß dieser Beschreibung sind Ränder oder Begrenzungen n-dimensional.
  • Gemäß einem ersten Aspekt der Erfindung wird ein Verfahren zum Erkennen eines Randes in einem medizinischen Bild geschaffen. Eine Gradientenrichtung wird für jeden einer Mehrzahl von Orten in einem Bild bestimmt. Die Randrichtung relativ zu der Gradientenrichtung wird für eine Mehrzahl von Orten ermittelt. Der Rand wird als die verbundenen Orte der Mehrzahl von Orten detektiert. Die Detektion ist eine Funktion der Gradientenrichtung und der Randrichtung.
  • Gemäß einem zweiten Aspekt der Erfindung wird ein anderes Verfahren zum Detektieren eines Randes in einem medizinischen Bild geschaffen. Ein Gradient wird von einer Mehrzahl von Orten in dem Bild bestimmt. Mindestens ein Liniensegment wird ermittelt, wo die Tangente zu dem Liniensegment im wesentlichen senkrecht zu einer Richtung des Gradienten für jeden Ort der Mehrzahl von Orten entlang des Liniensegments ist.
  • Gemäß einem dritten Aspekt der Erfindung wird ein System zum Erkennen eines Randes in einem medizinischen Bild geschaffen. Das System enthält einen Speicher, der ein medizinisches Bild speichern kann. Ein Prozessor ist betreibbar, um eine Gradientenrichtung für jeden einer Mehrzahl von Orten in dem Bild zu bestimmen, eine Randrichtung relativ zu der Gradientenrichtung für die Mehrzahl der Orte zu ermitteln, und den Rand als die verbundenen Orte zu detektieren. Die Detektion ist eine Funktion der Gradientenrichtung und der Randrichtung.
  • Gemäß einem vierten Aspekt der Erfindung wird eine Gradientenrichtung für jeden einer Mehrzahl von Orten in einem Bild bestimmt. Irgendein Verfahren zum Detektieren einer Sammlung von potentiellen Randpixeln in einem medizinischen Bild wird verwendet. Eine Sammlung von potentiellen Rändern wird definiert, indem die Sammlung von potentiellen Randpixeln verwendet wird. Dies können alle möglichen Begrenzungen sein, die durch die Sammlung von potentiellen Rändern verlaufen, ist jedoch vorzugsweise die Verwendung von physikalischen Begrenzungen auf den bestimmten Randtyp oder heuristische Bedingungen, um die Gesamtanzahl an möglichen Begrenzungen einzuschränken. Der Rand wird als Funktion der Bildgradientenrichtung und der potentiellen Ränder detektiert. Gemäß dem bevorzugten Ausführungsbeispiel ist der detektierte Rand der potentielle Rand, der eine Aufwandfunktion (auch Kostenfunktion genannt) der Tangente zu dem Rand und des Gradient minimiert.
  • Weitere Aspekte und Vorteile der Erfindung werden im folgenden in Verbindung mit den bevorzugten Ausführungsbeispielen diskutiert.
  • Die Komponenten in den Figuren sind nicht unbedingt maßstabsgetreu. Stattdessen sind diejenigen Teile hervorgehoben, die die Prinzipien der Erfindung verdeutlichen. Darüber hinaus kennzeichnen in den Figuren gleiche Bezugsziffern entsprechende Teile in unterschiedlichen Ansichten.
  • 1 zeigt ein Blockdiagramm eines Ausführungsbeispiels eines Systems zum Detektieren von Rändern in medizinischen Bildern.
  • 2A–C zeigen Flussdiagramme von Ausführungsbeispielen von Verfahren zum Detektieren eines Randes in einem medizinischen Bild.
  • 3 zeigt eine grafische Darstellung eines Ausführungsbeispiels eines medizinischen Bildes mit einer Querschnittsansicht einer Gefäßstruktur. 4 zeigt eine grafische Darstellung eines Ausführungsbeispiels eines medizinischen Bildes mit einer Längsansicht oder offenen Ansicht eines Gefäßes.
  • Eine Grenze wird derart gewählt, dass die Grenze eine geschlossene Kurve oder das Liniensegment ist, deren Tangente (T →curve) im wesentlichen senkrecht zu dem Bildgradienten (G →image) ist, überall entlang des Liniensegments oder der Kurve. Für eine Darstellung der Kurve oder der Linien in geschlossener Form kann (T →curve) direkt als Ableitung der Kurve entlang der Raumkoordinatenrichtungen berechnet werden. Der Bildgradient, (G →image) (auch als Gradient eines Bildes im folgenden bezeichnet) ist gleich den Ableitungen der Bildintensität entlang der Raumkoordinatenrichtungen. In anderen Fällen wird (T →curve) berechnet, indem die Koordinatenwerte der diskreten Punkte der Kurve verwendet werden. Die Richtung des Bildgradienten ist normalerweise normalisiert, um auf 1 normiert zu sein. In dieser Beschreibung können die Begriffe Bildgradientenrichtung und Bildgradient austauschbar verwendet werden. In alternativen Ausführungsbeispielen wird eine Normale (Lotrechte) oder eine andere Begrenzungsrichtungsbeziehung verwendet.
  • Für eine Umrandungs- oder Querschnittsansicht eines Gefäßes, beispielsweise der Oberarmarterie, wird eine Ellipse oder eine andere geometrische Form an das Innere des Gefäßes angepasst. Die Parameter, die die Ellipse oder eine andere geometrische Form definieren, werden dann basierend auf der Bildgradientenrichtung, Tangenten der Ellipse oder der anderen geometrischen Form, oder basierend auf anderen Faktoren einschließlich dem Betrag des Bildgradienten und/oder anderen Original oder abgeleiteten Bildmerkmalen optimiert. Die kleine Achse der Ellipse oder der anderen geometrischen Form stellt dann die Distanz über das Gefäß dar. Für ein Abbilden in Echtzeit werden die Werte der Parameter, die die Ellipse in einem vorherigen Bild definieren, in jedem nachfolgenden Bild verwendet und dann optimiert. Der Durchmesser des Gefäßes ist die kleinere Achse in jedem Bild und die Funktionalität des Gefäßes, welche durch den Gefäßdurchmesser angezeigt ist, ist eine Funktion der Zeit.
  • Als ein Beispiel für eine Längsansicht des Gefäßes werden die Bildgradienteninformation und mögliche Tangenten für jeden Ort innerhalb einer Region verwendet, um eine Liniensegmentgrenze zu bestimmen. Die Lumen-Intima-Grenze und die Media-Adventitia-Grenze werden in einer einzelnen Region, die von Interesse ist, bestimmt. Andere Querschnitts- und Längsansichten können beispielsweise verwendet werden.
  • Die geometrische Beziehung zwischen der Bildgradientenrichtung und der Randrichtung liefert einen schnellen und zuverlässigen Weg, um Gewebe/Gewebe- oder Gewebe/Fluid-Schnittstellen für Ultraschallsysteme oder andere medizinische bildgebende Systeme zu ermitteln. Durch Verwendung einer geometrischen Eigenschaft der Grenze und aufgrund der Kenntnis der ungefähren Form des Gewebes, jedoch nicht der erforderlichen Größe, Orientierung oder Position des Gewebes liefert der Benutzer eine minimale Eingabe zur automatischen Detektion der Grenzen. Der Benutzer kennzeichnet beispielsweise die allgemeine Anwendung, beispielsweise eine Querschnitts- oder Längsansichtabbildung und ermittelt einen Punkt in einem Bereich, der von Interesse ist. Die Randdetektion kann für organisches Gewebe oder für andere Objekte, die keine Gefäße sind, verwendet werden.
  • 1 zeigt ein Ausführungsbeispiel eines Systems 10 zum Detektieren eines Randes in einem medizinischen Bild. Das System 10 weist ein Abbildungssystem 12 (Imaging System) auf, einen Speicher 14, einen Prozessor 16, eine Anzeige 18 und ein Benutzereingabevorrichtung 20. Gemäß einem Ausführungsbeispiel der Erfindung enthält das System 10 ein Ultraschall-Imaging-System, beispielsweise ein Imaging-System von der Firma Siemens Medical Solutions USA, Inc. Ultraschallsysteme von anderen Herstellern können verwendet werden. Der Speicher 14, der Prozessor 16, die Anzeige 18 und die Benutzereingabevorrichtung 20 sind Teil des Ultraschall-Imaging-Systems. In alternativen Ausführungsbeispielen sind der Speicher 14, der Prozessor 16, die Anzeige 18 und/oder die Benutzereingabevorrichtung 20 separat von dem Abbildungssystem 12 ausgebildet, beispielsweise als Computer oder als eine Arbeitsstation, die über ein oder mehrere Netze oder Speicherübertragungsvorrichtungen mit dem Abbildungssystem 12 verbunden sind. Der Speicher 14, der Prozessor 16, die Anzeige 18 und die Benutzereingabevorrichtung 20 sind beispielsweise ausgebildet als PC, medizinische Bildgebungsarbeitsstation (Imaging Workstation) oder als eine andere Vorrichtung zur Verarbeitung medizinischer Bilder separat von dem Bildgebungsystem 12, oder von diesem entfernt oder benachbart zu diesem.
  • Das Imaging-System 12 oder das System 10 ist ein Ultraschallsystem gemäß einem Ausführungsbeispiel. Andere Ausführungsbeispiele enthalten Computertomographie, Magnetresonanz, Röntgenstrahlen oder andere Bildgebungssysteme (Imaging Systeme). Das Bildgebungsystem 12 erzeugt ein oder mehrere medizinische Bilder in verschiedenen Formaten.
  • Der Speicher 14 weist einen Zufallszugriffsspeicher (RAM) auf, eine Festplatte, eine Diskette, eine Kompaktdisk, eine Videokassette, einen Serverspeicher, einen Netzspeicher, einen Cashspeicher, einen CINE-Speicher oder andere bekannte oder zukünftig entwickelte Speichervorrichtungen. Der Speicher 14 speichert ein oder mehrere medizinische Bilder, beispielsweise Ultraschallbilder eines Gefäßes.
  • Der Prozessor 16 ist ein allgemeiner Prozessor, ein digitaler Signalprozessor (DSP), eine anwendungsspezifische integrierte Schaltung (ASIC), ein Steuerprozessor, eine digitale Schaltung, eine analoge Schaltung, Kombinationen davon oder eine allgemein bekannte oder in Zukunft entwickelte Vorrichtung zur Verarbeitung von Daten. Gemäß einem Ausführungsbeispiel weist der Prozessor 16 einen digitalen Signalprozessor und ein Hochpassfilter auf. Der Prozessor 16 ist betreibbar, um eine Gradientenrichtung für jeden Ort einer Mehrzahl von Orten in einem Bild zu bestimmen. Der Prozessor 16 verarbeitet beispielsweise ein Bild, um Gradienten von dem medizinischen Bild, das in dem Speicher 14 gespeichert ist, zu ermitteln. Gemäß einem anderen Beispiel erzeugt ein Hochpassfilter die Gradienteninformation, und der Prozessor 16 ermittelt die Richtung der Gradienten für jeden speziellen Ort innerhalb des Bildes. Der Prozessor 16 ist ebenfalls betreibbar, um eine Randrichtung relativ zu der Gradientenrichtung für eine Mehrzahl von Orten in einem Bild zu identifizieren. Der Prozessor 16 detektiert den Rand als Serie von verbundenen Bildorten oder Pixeln, wo die Detektion einer Funktion der Bildgradientenrichtung und einer Randrichtung ist. Gemäß einem Ausführungsbeispiel minimiert der Prozessor 16 eine Aufwandfunktion als Funktion der Bildgradientenrichtung und einer Randrichtung für jeden der Mehrzahl von Orten und wählt den Rand als verbundene Orte entsprechend den minimalen Aufwand aus. Gemäß einem Offline-Ausführungsbeispiel werden die Ränder mit verschiedenen Geschwindigkeiten detektiert. Für die Bildgebung (Imaging) in Echtzeit, können die Ränder in Echtzeit detektiert werden, indem Verweistabellen (Look-up-Tabellen) verwendet werden für die Suchrichtung oder eine sinus- oder kosinusbasierte Berechnung der Suchrichtung. Die Randdetektion kann bei 30 Rahmen pro Sekunde oder mehr (schneller) erfolgen. Gemäß alternativen Ausführungsbeispielen werden langsamere Berechnungen durchgeführt.
  • Gemäß einem Ausführungsbeispiel empfängt der Prozessor 16 Eingabewerte von der Benutzereingabevorrichtung 20. Die Signale von der Benutzereingabevorrichtung 20 kennzeichnen beispielsweise eine Region oder einen Ort, der von Interesse ist, innerhalb eines Bildes. Der Prozessor 16 erzeugt eine Anfangsgrenze in Antwort auf die Benutzereingabe über die Benutzereingabevorrichtung 20. Der Prozessor 16 empfängt beispielsweise eine von einem Benutzer ermittelte Grenze oder verwendet einen Algorithmus zur Identifizierung einer Anfangsbegrenzung. Der Prozessor 16 antwortet ebenfalls auf die Benutzereingabe 20 zur Identifikation der geometrischen Form oder des generellen Typs eines Bildes. Der Benutzer wählt beispielsweise eine Endothelialanwendung aus, die eine geschlossene geometrische Form einer Querschnittsansicht eines Gefäßes kennzeichnet. Gemäß einem anderen Beispiel wählt der Benutzer eine IMT-Messanwendung aus, die eine Gefäßlängsansicht kennzeichnet. Alternativ gibt der Benutzer lediglich den Typ der Ansicht für die Randdetektion ein, indem er entweder eine geschlossene geometrische Form kennzeichnet oder eine Linie ohne verbundene Enden (also eine offene Form). Gemäß noch anderen alternativen Ausführungsbeispielen verarbeitet der Prozessor 16 die Bilddaten, um einen potentiellen Rand zu identifizieren.
  • Die Benutzereingabevorrichtung 20 enthält einen Trackball, eine Maus, einen Touch Screen, eine Zeigervorrichtung, ein Touchpad, eine Tastatur, Tasten, Schieber, Schalter, Knöpfe oder andere allgemein bekannte oder zukünftige entwickelte Eingabevorrichtungen. Gemäß einem Ausführungsbeispiel ist die Benutzereingabevorrichtung 20 eine Benutzerschnittstelle entweder in dem Abbildungssystem 12 oder einem PC.
  • Die Anzeige 18 ist ein CRT, LCD, ein Flachbildschirm, eine Projektion, ein Plasmaschirm oder eine allgemein bekannte oder zukünftige entwickelte Anzeigevorrichtung. Die Anzeige 18 ist betreibbar, um die medizinischen Bilder mit oder ohne detektierter Randinformation anzuzeigen. Die Anzeige 18 zeigt beispielsweise ein medizinisches Bild mit einer hervorgehobenen Überlagerung, die den Rand darstellt, der von dem Prozessor 16 detektiert worden ist.
  • 2A zeigt ein Verfahren gemäß einem Ausführungsbeispiel zum Detektieren eines Randes in einem medizinischen Bild. Das Verfahren weist zwei unterschiedliche Ansätze auf, abhängig davon, ob eine geschlossene oder eine offene Randform detektiert wird, wie durch eine Auswahl A in 2B und eine Auswahl B in 2C dargestellt. Andere, zusätzliche oder weniger Schritte können in alternativen Ausführungsbeispielen vorliegen.
  • Eine Sammlung von potentiellen Randpixeln oder Orten wird ermittelt, beispielsweise als Gesamtbild oder als Nebensatz des Bildes. In Schritt 24 wird beispielsweise eine Region, die von Interesse ist, ausgewählt. Gemäß einem Ausführungsbeispiel empfängt der Prozessor 16 eine Angabe einer Region, die von Interesse ist. Der Benutzer wählt beispielsweise einen Punkt innerhalb eines Gefäßes oder einen Bereich innerhalb oder um das Gefäß herum oder ein anderes Objekt von Interesse aus. Gemäß alternativen Ausführungsbeispielen bestimmt der Prozessor 16 automatisch eine Region, die von Interesse ist, basierend auf einer Bildeigenschaft, beispielsweise einem Bereich, der Werte geringer Intensität aufweist. Die Region, die von Interesse ist, enthält Bildorte, die nur mit einem Signaltyp in Zusammenhang stehen, mit einem im allgemeinen ähnlichen Intensitätspegel, oder Signale, die mit unterschiedlichen Intensitätswerten in Zusammenhang stehen. Die Region, die von Interesse ist, hat eine bestimmte Größe, beispielsweise stellt sie eine Region des Patienten dar, die eine Größe von 1 cm × ½ cm aufweist, jedoch können andere Größen verwendet werden. Alternativ wird die Region, die von Interesse ist, basierend auf zusätzlicher Information ausgewählt, beispielsweise als Bestimmung einer Anfangsgrenze in Schritt 26, basierend auf einer Benutzerauswahl eines Punktes oder eines anderen Ortes. Die ausgewählte Region, die von Interesse ist, ist bezüglich der Größe und/oder Form angepasst, um eine Anfangsgrenze einzuschließen, um an der Anfangsgrenze zu liegen, oder um Gewebe oder eine andere Strukturinformation zu enthalten, innerhalb und außerhalb einer Anfangsbegrenzung.
  • Eine Auswahl von potentiellen Rändern wird ermittelt, indem die Auswahl von potentiellen Randpixeln verwendet wird. Dies können alle möglichen Grenzen sein, die durch die Sammlung von möglichen Rändern verlaufen, jedoch können physikalische Grenzen für einen bestimmten Randtyp oder heuristische Bedingungen verwendet werden, um die Gesamtanzahl von möglichen Rändern einzuschränken. Beispielsweise werden eine oder mehrere potentielle oder Anfangsbegrenzungen in Schritt 26 bestimmt, alleine oder in Kombination mit einer Verfeinerung eines Randes im Schritt 38 oder einer Auswahl möglicher Ränder in Schritt 44.
  • In Schritt 26 wird eine Anfangsbegrenzung bestimmt. Gemäß einem Ausführungsbeispiel ist die Anfangsbegrenzung als Funktion der Bildintensitäten und Benutzerangaben einer Region, die von Interesse ist, bestimmt. Beispielsweise gibt der Benutzer eine bestimmte Position in einem Bild an. Durch die Verwendung eines Regionwachsalgorithmus (auch als Region-Growing-Algorithmus bezeichnet) können die Intensitäten von Pixeln benachbart zu dem ausgewählten Pixel oder die augenblickliche Region mit einem Schwellenwert verglichen werden. Wenn die Pixelintensität über einem Schwellenwert liegt, wird eine Anfangsbegrenzungsposition bestimmt. Wenn die Pixelintensität unter dem Schwellenwert liegt, wird das Verfahren bei einem nächsten benachbarten Pixel fortgesetzt, bis eine Anfangsbegrenzung in einer gegebenen Richtung gefunden ist. Die Region wächst in alle Richtungen, um eine geschlossene Form zu ermitteln, beispielsweise eine Gefäßgrenze in einem Querschnittsbild. Zur Ermittlung einer offenen Form oder eines Liniensegmentrandes wird das Verfahren in einer benutzerfestgelegten Richtung fortgesetzt, oder in einer Richtung, die in Zusammenhang steht, mit einem erkannten Pixel über dem Schwellenwert, welches dem Startpixel am nächsten ist. Ein Liniensegment einer bestimmten Länge, beispielsweise 1 cm relativ zu dem Objekt wird dann ermittelt. Gemäß alternativen Ausführungsbeispielen werden mehrere Anfangsränder ermittelt. Durch Verwendung eines Region-Growing-Algorithmus, um die Anfangsbegrenzung oder potentielle Begrenzung zu erhalten, kann eine übermäßige Berechnung verhindert werden. Das Regionwachsen kann gegen Spike Noise weniger empfindlich sein.
  • In zusätzlichen Ausführungsbeispielen wird die Anfangsgrenze weiter verfeinert. Beispielsweise wird eine geometrische Form in die Anfangsbegrenzung oder im allgemeinen über die Anfangsbegrenzung ein-/angepasst, die durch ein Region Growing bestimmt worden ist, für eine geschlossene Form. Eine Ellipse oder ein Kreis mit gleicher Anzahl an schwarzen Pixeln oder Flusspixeln (Flow-Pixeln) als Region-Growing-Anfangsrand wird als anfangsgeometrische Form ausgewählt. Alternativ bestimmt der Benutzer drei unterschiedliche Orte auf der Gefäßwand und ein Kreis oder eine Ellipse, die durch die drei Punkte verläuft, wird als Anfangsbegrenzung verwendet. Alternativ wird ein Curve-Fitting verwendet, indem alle Anfangsrandpunkte verwendet werden, oder eine Identifikation der zwei nächstliegendsten Randpositionen auf gegenüberliegenden Seiten des Region-Growing-Randes als die kleinere Achse einer Ellipse, und der Abstand zwischen zwei Positionen um eine 90 Grad Achse wird als Hauptachse der Ellipse verwendet. Die Ellipse oder eine andere geometrische Form wird dann als Anfangsbegrenzung verwendet. Beispielsweise ist eine Ellipse parametrisiert als: x = x0 + a cos(α) cos(θ) – b sin(α) sin(θ) y = y0 + a sin(α) cos(θ) + b cos(α) sin(θ)wobei x0 und y0 das Zentrum der Ellipse kennzeichnen, a die Hauptachse der Ellipse, b die kleine Achse der Ellipse, α den Winkel der Ellipse in der Bildebene und θ eine Position auf dem Rand der Ellipse darstellt. Wenn das oben genannte Beispiel verwendet wird, werden die Werte von [x0, y0, a, b, α], die von dem Curve-Fitting-Verfahren gewonnen werden, als Anfangsparameter p0 = [x0, y0, a, b, α] gesetzt. Andere Techniken können für das Curve-Fitting einer geometrischen Form an die ermittelte Begrenzung verwendet werden, indem ein Regionwachsen (Region-Growing) verwendet wird, oder eine andere Randdetektionstechnik. Gemäß noch anderen alternativen Ausführungsbeispielen erfolgt kein zusätzliches Curve-Fitting und die Anfangsbegrenzung, die durch Verwendung eines Regionwachsens oder durch eine andere allgemein bekannte oder später entwickelte Randdetektionstechnik bestimmt wird, wird als Anfangsbegrenzung verwendet.
  • Gemäß einem noch anderem zusätzlichen Ausführungsbeispiel wird die Anfangsbegrenzung als ein Liniensegment oder als eine offene Form bestimmt. Beispielsweise wird ein Regionwachsen verwendet, um ein oder um mehrere Liniensegmente zu bestimmen. Eine Region, die von Interesse ist, wird dann eingestellt, um das Liniensegment zu umschliessen, beispielsweise erfolgt eine Translation und Drehen der Region, die von Interesse ist. Beispielsweise wird eine 1 cm × ½ cm Region, die von Interesse ist, übersetzt und gedreht, um ein 1 cm langes Liniensegment einzuschließen. Größere oder kleinere Liniensegmente und/oder Regionen, die von Interesse sind, können verwendet werden. In zusätzlichen Ausführungsbeispielen werden mehrere Liniensegmente ermittelt und unterschiedliche oder gleiche Regionen, die von Interesse sind, können verwendet werden, um mehrere Regionen, die von Interesse sind, einzuschließen. Für einen Rand mit offener Form oder einen Liniensegmentrand wird die Anfangsbegrenzung bestimmt und die Region, die von Interesse ist, wird basierend auf der Anfangsbegrenzung ausgewählt. Für eine geschlossene Form wird die Region, die von Interesse ist, als Anfangsbegrenzung ermittelt, oder die Anfangsbegrenzung wird als innerhalb einer vorher ausgewählten interessierenden Region liegend ermittelt. Verschiedene Kombinationen des Auswählens der Region, die von Interesse ist, und des Bestimmens einer Anfangsbegrenzung, indem unterschiedliche Algorithmen in unterschiedlichen Reihenfolgen verwendet werden, können verwendet werden.
  • In Schritt 28 wird der Gradient des medizinischen Bildes bestimmt. Beispielsweise werden die Bilddaten räumlich hochpassgefiltert. Irgendeine Filtergröße oder Pixelfenster für ein eindimensionales, zweidimensionales oder dreidimensionales Hochpassfilter kann verwendet werden. Infinite Impulsantwortfilter oder finite Impulsantwortfilter können verwendet werden. Gemäß alternativer Ausführungsbeispiele berechnet ein Prozessor oder eine andere Schaltung die erste Ableitung des medizinischen Bildes für verschiedene Raumpositionen. Andere Techniken zur Bestimmung eines Bildgradienten, die im Moment bekannt sind oder die später bekannt werden, können verwendet werden.
  • Gemäß einem Ausführungsbeispiel werden Gradienten für ein Gesamtbild ermittelt. Alternativ können Gradienten nur für einen Anfangsrand, eine Region, die von Interesse ist, eine gegebene Region um den Anfangsrand herum oder für einen anderen Bereich des medizinischen Bildes bestimmt werden.
  • Die Gradientenrichtungen werden aus der Gradienteninformation bestimmt. Beispielsweise wird der zweidimensionale Richtungsgradientenvektor, der mit jedem Pixel oder einem anderen Ort entlang des Anfangsrandes im Zusammenhang steht oder innerhalb einer Region, die von Interesse ist, bestimmt. Gemäß einem Ausführungsbeispiel wird die Richtung, die mit dem größten Betrag des Gradienten um ein bestimmtes Pixel herum in Zusammenhang steht, als Gradientenrichtung für dieses Pixel ausgewählt. Alternativ wird eine statistische Analyse und eine andere-Funktion verwendet, um die Gradientenrichtung an einem bestimmten Ort basierend auf benachbarten Gradientenwerten zu bestimmen.
  • In Schritt 30 wird eine Randrichtung relativ zu der Bildgradientenrichtung für eine Mehrzahl von Orten bestimmt. Die Randrichtung wird für einen Anfangsrand, Bildpositionen innerhalb der Region, die von Interesse ist, oder für andere Bildorte ermittelt. Gemäß einem Ausführungsbeispiel wird die Randrichtung als Tangente zu der Bildgradientenrichtung an jedem der Mehrzahl von Orten bestimmt. Die Tangente wird als Funktion der geometrischen Form für einen umschlossenen Anfangsrand bestimmt, oder als Funktion des Liniensegments für einen Anfangsrand offener Form. Die Tangente ist eine Linie senkrecht zu der Richtung des Bildgradienten für jeden Ort der Mehrzahl von Orten entlang des Liniensegments. Mehrere mögliche Tangenten für irgendeinen gegebenen Ort können bestimmt werden. Gemäß alternativer Ausführungsbeispiele ist die verwendete Randrichtung eine Normale (Lotsenkrechte) zu einer Oberfläche oder einer anderen Richtungsangabe.
  • Die Anfangsbegrenzung wird verfeinert als Funktion der Bildgradientenrichtung und der möglichen Randrichtungen. Das Ermitteln der Randrichtungen und die Detektion des Randes gemäß den Schritten 30 und 32 können gleichzeitig durchgeführt werden, Teil einer gleichen Funktion oder Berechnung sein, oder getrennt erfolgen. Gemäß einem Ausführungsbeispiel wird die Tangente des Randes berechnet, indem entweder die parametrisierte geschlossene Form verwendet wird, die den Rand darstellt, oder indem diskrete Punkte des Randes verwendet werden. Der Rand ist definiert an Orten, wo die Tangente der Anfangsbegrenzung oder eine Tangente einer vorherigen Begrenzung senkrecht zu der Bildgradientenrichtung ist. Beispielsweise ist das Vektorprodukt des Tangentenvektors zu einer Kurve oder Begrenzung mit der Bildgradientenrichtung minimiert, um sich einem Nullwert zu nähern. Die minimale Aufwandfunktion wird für jeden der Mehrzahl von Orten berechnet. Die minimale Aufwandfunktion ist eine Funktion der Tangente an dem Ort und der Richtung des Bildgradienten für den gleichen Ort. Durch Minimieren der Aufwandfunktion als Funktion der Bildgradientenrichtung und der Randrichtung für jeden einer Mehrzahl von Orten innerhalb einer Region entlang einer Anfangsbegrenzung oder für andere Orte, wird ein genauerer Rand detektiert. Die senkrechte Beziehung der Tangente des Randes und der Bildgradientenrichtung wird durch Minimierung der Aufwandfunktion angenähert.
  • 2B zeigt den Zweig A gemäß 2A, um eine Randrichtung zu bestimmen und einen Rand zu detektieren, indem eine geschlossene geometrische Form gemäß einem Ausführungsbeispiel verwendet wird. Beispielsweise weist das medizinische Bild eine Querschnittsform eines Gefäßes auf. 3 zeigt eine graphische Darstellung eines Gefäßes. Die Ellipse 50 stellt eine Anfangsbegrenzung dar, eine nachfolgend berechnete Begrenzung oder eine minimale Aufwandbegrenzung. Das Fadenkreuz 52 stellt eine Auswahl eines Benutzers dar, der einen Ort innerhalb einer gewünschten Region zur Analyse bestimmt. Die Ellipse 50 repräsentiert beispielsweise eine Anfangsbegrenzung, die bestimmt ist, um eine Breite eines Gefäßes für eine Endothelial-Funktionsmessung zu berechnen. Die Bildgradientenberechnung wird für jeden einer Mehrzahl von Orten entlang eines Randes der geometrischen Form bestimmt, die den Gefäßquerschnitt annähert. Verschiedene geometrische Formen können verwendet werden, beispielsweise ein Ellipsoid. Die Randrichtung wird dann als Tangente zu der geometrischen Form an jedem der Mehrzahl von Orten entlang des Randes bestimmt. Der Rand wird als Funktion der Anfangsbegrenzung detektiert.
  • Im Schritt 34 wird die geometrische Form als Iteration (iterativ) geändert. In dem Beispiel der Ellipsenform wird der Parametersatz [x0, y0, a, b, α] geändert, um eine Ellipse zu bestimmen, die dem minimalen Aufwand entspricht. Verschiedene Kombinationen des Änderns der Parameter können verwendet werden, beispielsweise das Ändern des x0- und y0-Wert, um den minimalen Aufwand zu ermitteln, und dann Ändern der a- und b-Achswerte basierend auf dem vorher ermittelten x0- und y0-Werten, und letztendlich Ändern des α-Werts. Irgendwelche Gruppierungen von Parametern und Reihenfolgen des Suchens und Ermittelns von Parametern, die mit der Minimumkostenfunktion in Zusammenhang stehen, können verwendet werden. Ein iterativer Prozess, der Änderungen aller Parameterwerte einschließt, kann gemäß anderen Ausführungsbeispielen verwendet werden. Die Änderung der Parameter der geometrischen Form hat eine Aktualisierung der Tangentenwerte jedes Punkts in der Form zur Folge.
  • In Schritt 36 wird die Aufwandfunktion basierend auf augenblicklich ausgewählten Parameterwerten für die geometrische Form berechnet. Die Aufwandfunktion reagiert auf die Bildgradientenrichtung und die Tangente für irgendeinen gegebenen Ort x, y auf der geometrischen Form. In einer generischen Form der Aufwandfunktion kann der Aufwand C dargestellt werden als C = E + D, wobei E irgendein geeigneter Aufwandausdruck ist, der in existierenden oder später entwickelten verformbaren Modell-Verfahren verwendet wird. E ist beispielsweise die zweite Ableitung des Bildes entsprechend der Marr-Theorie, die erste Ableitung entsprechend dem Canny-Verfahren, oder ein anderer abgeleiteter Wert des Bildes.
  • Der D-Ausdruck stellt die orthogonale Eigenschaft des Bildgradienten und der Tangente der Begrenzung dar. Ein Beispiel der Aufwandfunktion ist gegeben durch C = –⨐|G(x, y)|dθ + D wobei in einer idealen Situation |G(x, y)| der Betrag des Bildgradienten und D ⨐|Tcurve × Gimage|dθ ≡ 0 ist. Das Vektorprodukt des Tangentenvektors mit der Bildgradientenrichtung nähert sich Null an, je senkrechter die Tangente zur Bildgradientenrichtung wird. Durch das Integrieren über alle Werte von θ, werden die Kosten, die mit der geometrischen Form für verschiedene x- und y-Orte entlang der geometrischen Form in Zusammenhang stehen, bestimmt. Andere Aufwandsfunktionen können verwendet werden, beispielsweise wird das negative Vorzeichen vor dem Betrag des Gradientenintegrals weggelassen, um den maximalen Aufwand zu bestimmen.
  • In Schritt 38 erfolgt eine Suche, um einen Wechsel oder eine Änderung in einem oder in mehreren Parametern der geometrischen Form zu bestimmen, beispielsweise eines der Parameter, wie oben für die Ellipse diskutiert. Gemäß einem Ausführungsbeispiel werden ein oder mehrere Parameter inkrementiert oder dekrementiert. Gemäß einem anderen Ausführungsbeispiel wird eine Suchrichtung mathematisch berechnet, um die unterschiedlichen Parameter für die geometrisch Form zu bestimmen. Beispielsweise ist die Suchrichtung s gegeben durch
    Figure 00150001
    wobei I(x, y) die Bildintensität ist, und die oberste bis unterste Gleichung verwendet werden, um einen geänderten Parameterwert x0, y0, a, b und α jeweils zu bestimmen. Ein anderer Parameter wird für die geometrische Form als Funktion der Bildintensität oder Bildwerten entlang der geometrischen Form bestimmt. Durch Berechnung einer Suchrichtung für einen oder für mehrere Parameterwerte kann die Anzahl von iterativen Schritten, die notwendig sind zur Minimierung der Aufwandfunktion, reduziert werden. Andere Funktionen zur Bestimmung einer Suchrichtung oder zur Änderung des Formparameters können verwendet werden.
  • In Schritt 40 erfolgt ein Schwellenwertverfahren, um zu bestimmen, ob das Ändern der geometrischen Form für die Parameter fortgesetzt werden soll. Beispielsweise ist der absolute Wert der Aufwandfunktion kleiner als 0,001 oder ein anderer Wert, der absolute Wert einer der Parameteränderungen ist kleiner als 0,0001 oder ein anderer Wert, oder die Anzahl an Iterationen erreicht 50 oder einen anderen Wert. Die augenblicklichen Parameterwerte sind der Endwert. Gemäß alternativer Ausführungsbeispielen werden die Ergebnisse der Aufwandfunktionsrechnung in Schritt 36 mit einem Schwellenwert verglichen, um zu bestimmen, ob das Ändern eines oder mehrerer Parametern fortgesetzt wird.
  • In Schritt 42 wird bestimmt, ob alle Parameter vollständig abgeschlossen (abgearbeitet) sind. Wenn ein zusätzlicher Parameter einzustellen ist, kehrt das Verfahren zu Schritt 34 zurück. Für jeden verschiedenen Parameter oder jeden verschiedenen Satz an Parametern wird in Schritt 36 der Aufwand berechnet und in Schritt 38 die Änderung eines Parameters oder von mehreren Parametern bestimmt. Nach dem Vergleich mit dem Schwellenwert in Schritt 40 wird ein Endparameter bestimmt, irgendwelche zusätzlichen Parameter können geändert und das Verfahren wiederholt werden. Sobald alle Parameter als endgültig bestimmt sind, stellt die resultierende geometrische Form die minimalen Kosten dar, oder die beste passende geometrische Form für das Gefäß oder eine andere Region, die von Interesse ist. Die geometrische Beziehung der Randrichtung und der Bildgradientenrichtung bestimmt die beste Anpassung. Die endgültige geometrische Form wird aus verschiedenen geometrischen Formen ausgewählt. Die geometrische Form mit Parametern, die dem minimalen Aufwand entsprechen, werden ausgewählt.
  • Die kleine Achse der Ellipse stellt eine Breite des Gefäßes dar oder eine Breite einer anderen Struktur. Dort, wo die Winkelbeziehung zwischen der abgetasteten Ebene und dem Gefäß bekannt ist, kann die Hauptachse ebenfalls zur Berechnung einer Breite verwendet werden. Eine Ellipse wurde in dem oben genannten Beispiel verwendet, jedoch können andere geometrische Formen verwendet werden. Die Aufwandfunktion umfasst einen Tangentenausdruck, kann jedoch andere Randrichtungsangaben aufweisen, beispielsweise eine Normale. Durch Einfügen einer Suchdetermination wird eine Anzahl von Iterationen verwendet, um die Aufwandfunktion zu minimieren, um die endgültige geometrische Form oder den minimalen Aufwand zu bestimmen. Die endgültige geometrische Form ist der detektierte Rand.
  • 2C zeigt die Bestimmung der Randrichtung und die Detektion des Randes in den Schritten 30 und 32 für eine offene Form oder ein Liniensegment. 4 zeigt beispielsweise zwei Liniensegmentränder 54 und 56 für eine Lumen-Intima-Begrenzung und eine Media-Adventitia-Begrenzung. Das Bild gemäß 4 zeigt eine Längsansicht eines Gefäßes. Die Ränder 54 und 56 stehen im allgemeinen in Zusammenhang mit einer Gradientenänderung von einem hellreflektierendem Gewebe zu einem irgendwie reflektierendem Gewebe, und letztendlich zu einem weniger reflektierendem Fluid, beispielsweise Blut in einem Gewebe.
  • Wie in 2C gezeigt, wird die Bildgradientenrichtung für jeden einer Mehrzahl von Orten innerhalb einer Region, die von Interesse ist, bestimmt, die ausgewählt ist, um die Anfangsbegrenzungen oder Liniensegmente 54 und 56 zu umschließen, beispielsweise eine 1 cm × 0,5 cm große Region, die von Interesse ist. Ein einzelner Anfangsrand oder Liniensegmente, die mit einem anderen Objekt in Zusammenhang stehen, können verwendet werden und/oder verschiedene, zusätzliche oder weniger Schritte können verwendet werden.
  • In Schritt 44 wird ein möglicher und potentieller Rand, bestehend aus verbundenen Pixeln, ausgewählt. Anstelle der Verwendung einer geometrischen Form wird der Rand als ein Liniensegment freier Form angesehen. Gemäß einem Ausführungsbeispiel wird eine diskrete Variable r eingeführt, um eine Richtung darzustellen, in die alle Orte in dem Rand projizieren können. Gemäß einigen Ausführungen ist der Bereich des Liniensegments in r fixiert. Beispielsweise wird im Interesse der Messung nur 1 cm des Gewebes verwendet. Wenn die horizontale Richtung (x) des Bildes als r verwendet wird, dann ist x innerhalb eines bestimmten Bereichs, beispielsweise [100, 300] in der Pixeleinheit. Entsprechend der Variablen θ, als die nächstliegendste Formpositionsvariabel wird die Randsuche in der offenen Form in r segmentiert. Das dynamische Programmierverfahren (DP-Verfahren) ist am geeignetsten zur Suche der minimalen Aufwandfunktion, die mit der Variablen r in Zusammenhang steht. Andere Verfahren können verwendet werden, um die Aufwandfunktion zu minimieren. DP summiert alle den gesamten Aufwand für jeden Ort. Für jeden Ort wird die Tangente geschätzt, indem die Nachbarpixel entlang des Randes verwendet werden. Für jeden möglichen Rand wird in Schritt 46 der Aufwand berechnet. Die Aufwandfunktion kann beispielsweise modifiziert werden in
    Figure 00180001
    Anstelle der Verwendung eines Integrals ist die Kostenfunktion die Summe des Betrags des Bildgradienten für den x, y-Ort plus das Vektorprodukt der Bildgradientenrichtung über die Bereichsvariable r. Die Schritte 44 und 46 werden für jeden möglichen Rand, der mit einem gegebenen Ort in Zusammenhang steht, wiederholt. Das dynamische Programmierverfahren (DP-Verfahren) wird für jeden Ort auf dem Rand ausgeführt.
  • In Schritt 48 wird x oder y oder beide Werte inkrementiert oder dekrementiert. Das Verfahren wiederholt sich, bis der mögliche Aufwand für jeden der Orte innerhalb einer Region, die von Interesse ist, berechnet worden sind.
  • In Schritt 49 wird der minimale Aufwand, der mit jedem Ort innerhalb der Region, die von Interesse ist, in Zusammenhang stehen, ausgewählt. Die Randrichtung für jeden der Mehrzahl von Orten innerhalb der Region von Interesse wird durch das Auswählen ermittelt. Die Randrichtung ist eine Funktion von möglichen Aufwandberechnungen (also die Mehrzahl der möglichen Randrichtungen für jeden Ort). Der Rand wird aus dieser zweidimensionalen Matrix des minimalen Aufwands ausgewählt. Die Kombination der verbundenen Orte oder das Liniensegment mit den minimalen Aufwand wird als Rand verwendet.
  • In 2A wird der Rand in Schritt 32 detektiert. Der Rand wird als verbundene Orte innerhalb des Bildes detektiert als Funktion der Bildgradientenrichtung und der Randrichtung. Für das Beispiel einer geschlossenen Form, wie oben beschrieben, wird der Rand als endgültig geschlossene Form detektiert, die mit der minimalen Aufwandfunktion in Zusammenhang steht. Die Tangenten der geschlossenen Form – Form sind der Senkrechten zu der Bildgradientenrichtung entlang des Randes am besten angenähert. Für die offene Form, wie oben beschrieben, wird der Rand als ein Liniensegment detektiert, von verbundenen oder benachbarten Orten mit einer minimalen Kostenfunktion. Andere Algorithmen können verwendet werden zur Auswahl benachbarter oder verbundener Orte, die mit der minimalen Aufwandfunktion in Zusammenhang stehen. Gemäß einem Ausführungsbeispiel wird der Ort, der mit dem minimalen Aufwand in Zusammenhang steht, ausgewählt. Zwei benachbarte Orte, die mit dem minimalen Aufwand von umgebenden Orten in Zusammenhang stehen, werden dann ausgewählt. Für jedes Ende des Liniensegments wird ein anderer benachbarter Ort mit dem minimalen Aufwand als ein verbundener Ort ausgewählt. Das Verfahren wiederholt sich, um das Liniensegment oder den detektierten Rand zu bilden. Gemäß einem Ausführungsbeispiel wird das Verfahren für einen zweiten Rand wiederholt. Gemäß diesem Ausführungsbeispiel erfolgt eine Überprüfung, um sicherzustellen, dass die Ränder sich nicht kreuzen. Alternativ sind die Regionen, die von Interesse sind, dahingehend definiert, dass sie sich nicht überlappen und separate unterschiedliche Ränder aufweisen.
  • Gemäß einem Ausführungsbeispiel wird ein Rand in drei Dimensionen detektiert. Die Detektion ist eine Funktion eines Bildgradienten und einer Normalen zu einer Oberfläche. Da die Normale als Randrichtung verwendet wird, anstelle einer Tangente, nähert sich das Vektorprodukt der Normalen mit dem Bildgradienten in einem dreidimensionalen Raum einem Eins-Wert an für einen gewünschten Rand. Ähnliche Aufwandfunktionen und dreidimensionale Integrationen werden verwendet, um einen gewünschten dreidimensionalen Rand zu bestimmen. Beispielsweise wird eine Zylindernäherung in einer geschlossenen Form verwendet. Alternativ wird eine Oberfläche als offene Form detektiert. Die Bilddaten, die für ein dreidimensionales Volumen verwendet werden, enthalten eine Mehrzahl von Bildebenen, die in einem dreidimensionalen Volumen rekonstruiert sind. Der Rand wird detektiert an verbundenen Orten auf einer Oberfläche der dreidimensionalen geometrischen Form basierend auf der Normalen zur Oberfläche und den Bildgradientenrichtungen an jedem einer Mehrzahl von Orten innerhalb des dreidimensionalen Volumens. Andere Randrichtungen als die Normale können in alternativen Ausführungsbeispielen verwendet werden.
  • Die oben beschriebenen Verfahren ermitteln einen Rand in einem gegebenen Bild. Für eine Folge von Bildern wird jeder Rand separat in jedem sequentiellen Bild bestimmt. Alternativ können die Parameter oder der Rand, der in einem vorherigen Bild bestimmt worden ist, als Anfangsbegrenzung für jedes nachfolgende Bild verwendet werden. Die Dicke zwischen zwei Rändern, beispielsweise für IMT, der Durchmesser eines Gefäßes oder eine andere Eigenschaft, die als Funktion des detektierten Randes berechnet wird, wird über die Zeit gemäß einem Ausführungsbeispiel angezeigt. Beispielsweise treten Endothelialfunktionsmessungen typischerweise über eine Zeitperiode, als Gefäßerweiterung auf. Der Gefäßdurchmesser wird über die Zeit angezeigt. Der maximale Durchmesser, der auftritt, die Zeit, um den maximalen Durchmesser zu erreichen, die Änderung des Durchmessers über die Zeit in Prozent verglichen mit einem Basisliniendurchmesser oder einer anderen hergeleiteten Matrix, die eine endotheliale Endothelial-Funktionsstörung kennzeichnet, werden berechnet und angezeigt. Während im vorangegangenen eine Endothelial-Funktionsanalyse beschrieben wurde, indem eine geschlossene Form verwendet wurde, können Durchmessermessungen erhalten werden, indem unterschiedliche Liniensegmente in einer Randdetektion offener Form erhalten werden, basierend auf einer Längsansicht des Gefäßes.
  • Obwohl die Erfindung im vorangegangenen unter Bezugnahme auf verschiedene Ausführungsbeispiele beschrieben wurde, ist es für einen Fachmann auf diesem Gebiet selbstverständlich, dass Änderungen und Modifikationen durchgeführt werden können, ohne den Schutzbereich der Erfindung zu verlassen. Beispielsweise können verschiedene mathematische Beziehungen, Suchrichtungsberechnungen oder andere Algorithmen verwendet werden, um einen Rand, basierend auf einer Randrichtung und einer Bildgradientenrichtung zu detektieren. Verschiedene geometrische Formen können verwendet werden, geschlossene Formen und/offene Formen können verwendet werden.
  • Die im vorangegangenen gegebene detaillierte Beschreibung soll folglich nur beispielhaft sein und den Schutzbereich der beigefügten Ansprüche nicht einschränken.

Claims (23)

  1. Verfahren zur Detektion eines Randes in einem medizinischen Bild, mit den Schritten: (a) Bestimmen (28) einer Gradientenrichtung für jeden einer Mehrzahl von Orten in dem medizinischen Bild; (b) Identifizieren potentieller Randpixel; (c) Bestimmen (26) eines Satzes von potentiellen Rändern als Funktion verbundener Orte der potentiellen Randpixel; und (d) Detektieren (32) des Randes, wobei das Detektieren eine Funktion der Gradientenrichtung und des Satzes potentieller Ränder ist.
  2. Verfahren nach Anspruch 1, bei dem die Funktion von Schritt (d) eine Minimierung einer Aufwandfunktion ist, in Abhängigkeit von dem Gradienten und einer Normalen zum Rand.
  3. Verfahren nach Anspruch 2, bei dem die Aufwandfunktion nur über ausgewählte Ränder von potentiellen Rändern berechnet wird, für die reduzierter Aufwand vorhergesagt sind.
  4. Verfahren zum Detektieren eines Randes in einem medizinischen Bild, mit den Schritten: (a) Bestimmen (28) einer Gradientenrichtung für jeden einer Mehrzahl von Orten in dem Bild: (b) Identifizieren (30) einer Randrichtung relativ zu der Gradientenrichtung für die Mehrzahl der Orte; und (c) Detektieren (32) des Randes als verbundene Orte der Mehrzahl von Orten, wobei das Detektieren eine Funktion der Gradientenrichtung und der Randrichtung ist.
  5. Verfahren nach Anspruch 4, bei dem der Schritt (b) ein Identifizieren (30) einer Tangente in Gradientenrichtung an jedem der Mehrzahl von Orten aufweist.
  6. Verfahren nach Anspruch 4 oder 5, bei dem der Schritt (c) das Detektieren (32) des Randes als die verbundenen Orte aufweist, wo die Tangenten ungefähr senkrecht zu den Gradientenrichtungen entlang des Randes sind.
  7. Verfahren nach einem der Ansprüche 4 bis 6, ferner mit: (d) Empfangen (24) einer Angabe einer Region von Interesse; und (e) Bestimmen einer Anfangsbegrenzung als Funktion der Bildintensität und der Angabe; wobei der Schritt (c) als Funktion der Anfangsbegrenzung ausgeführt wird.
  8. Verfahren nach einem der Ansprüche 4 bis 7, ferner mit: (f) Minimieren des Aufwands einer Aufwandfunktion als Funktion der Gradientenrichtung und der Randrichtung für jeden der Mehrzahl von Orten; wobei der Schritt (c) ein Auswählen der verbundenen Orte entsprechend dem minimalen Aufwand aufweist.
  9. Verfahren nach Anspruch 8, bei dem der Schritt (f) eine Aufwandberechnung zu mehreren Zeitpunkten für jeden der Mehrzahl von Orten aufweist, wobei das Berechnen für jeden der mehreren Zeitpunkte eine Funktion unterschiedlicher möglicher Randrichtungen ist; wobei der Aufwand für jeden der Mehrzahl von Orten als das Minimum der Mehrfachberechnungen für einen gegebenen Ort ausgewählt wird.
  10. Verfahren nach einem der Ansprüche 4 bis 9, bei dem das medizinische Bild einer Gefäßlängsansicht aufweist, der Schritt (a) ein Bestimmen (28) der Gradientenrichtung für jeden einer Mehrzahl von Orten in einer Region von Interesse aufweist, und der Schritt (b) ein Identifizieren (30) einer Randrichtung für jeden der Mehrzahl von Orten in der Region von Interesse aufweist, wobei die Randrichtung als Funktion der Berechnungen für eine Mehrzahl von möglichen Randrichtungen für jeden Ort ausgewählt wird.
  11. Verfahren nach einem der Ansprüche 4 bis 10, bei dem das medizinische Bild eine Gefäßquerschnittsansicht aufweist, der Schritt (a) ein Bestimmen (28) der Gradientenrichtung für jeden einer Mehrzahl von Orten entlang eines Randes einer geometrischen Form aufweist, die den Querschnitt des Gefäßes annähert, der Schritt (b) ein Ermitteln (30) der Randrichtung als die Tangente zu der geometrischen Form an jedem der Mehrzahl von Orten aufweist.
  12. Verfahren nach einem der Ansprüche 4 bis 11, ferner mit: (g) Minimieren des Aufwands einer Aufwandfunktion in Antwort auf unterschiedliche Parameter, die die geometrische Form definieren, wobei die Aufwandfunktion eine Funktion der Gradientenrichtung und der Tangente für jeden der Mehrzahl von Orten ist; und (h) Bestimmen eines anderen Parameters der geometrischen Form für die Minimierung gemäß Schritt (g) als Funktion der Bildintensität; wobei der Schritt (c) ein Auswählen einer geometrischen Endform als Funktion der Parameter aufweist, die dem minimalen Aufwand entsprechen.
  13. Verfahren nach einem der Ansprüche 4 bis 12, bei dem der Schritt (c) aufweist: (c1) Ändern (34) der geometrischen Form als Funktion der Tangente und der Gradientenrichtung; und (c2) Auswählen einer geometrischen Endform aus den geänderten geometrischen Formen, ferner mit Bestimmen eines Gefäßdurchmessers als Funktion der geometrischen Endform.
  14. Verfahren nach einem der Ansprüche 1 bis 3, bei dem der Schritt (a) ein Bestimmen (28) der Gradientenrichtung für jeden der Mehrzahl von Orten in einem dreidimensionalen Raum aufweist, wobei das Bild, das mit einer Ebene innerhalb des Raums in Zusammenhang steht und/oder einem Rendering des Raums, der Schritt (c) eine Bestimmen einer Normalen zu einer Oberfläche an jeder der Mehrzahl von Orten aufweist, und der Schritt (d) ein Detektieren (32) des Randes als verbundene Orte aufweist, basierend auf der Normalen und der Gradientenrichtung an jedem der Mehrzahl von Orten.
  15. Verfahren zum Detektieren eines Randes in einem medizinischen Bild, mit den Schritten: (a) Bestimmen (28) eines Gradienten für eine Mehrzahl von Orten in dem Bild; und (b) Identifizieren (30) mindestens eines Liniensegments in Antwort auf eine Tangente zu dem Liniensegment im wesentlichen senkrecht zu einer Richtung des Gradienten für jeden Ort der Mehrzahl von Orten entlang des Liniensegments.
  16. Verfahren nach Anspruch 15, bei dem der Schritt (b) aufweist: (b1) Berechnen (36, 46) des minimalen Aufwands jedes der Mehrzahl von Orten, wobei der minimale Aufwand für jeden Ort eine Funktion der Tangente an dem Ort und der Richtung des Gradienten für den Ort sind; und (b2) Auswählen des Liniensegments als benachbarte Orte mit einer minimalen Summe des minimalen Aufwands.
  17. Verfahren nach Anspruch 15 oder 16, bei dem der Schritt (b) ein Ermitteln einer geschlossenen geometrischen Form aufweist.
  18. Verfahren nach einem der Ansprüche 15 bis 17, bei dem der Schritt (b) ein Ermitteln einer Linie ohne verbundene Enden aufweist.
  19. System zum Detektieren eines Randes in einem medizinischen Bild, mit: einem Speicher (14) zum Speichern des medizinischen Bildes; und einem Prozessor (16), der betreibbar ist zum Bestimmen einer Gradientenrichtung für jeden einer Mehrzahl von Orten in dem Bild, Identifizieren einer Randrichtung relativ zu der Gradientenrichtung für die Mehrzahl der Orte, und Detektieren des Randes als verbundene Orte der Mehrzahl von Orten, wobei das Detektieren eine Funktion der Gradientenrichtung und der Randrichtung ist.
  20. System nach Anspruch 19, ferner mit: einer Benutzereingabevorrichtung (20), wobei der Prozessor (16) betreibbar ist zum Bestimmen einer Anfangsbegrenzung in Antwort auf eine Benutzereingabe mit der Benutzereingabevorrichtung (20).
  21. System nach Anspruch 19 oder 20, bei dem der Prozessor (16) betreibbar ist zum Minimieren des Aufwands einer Aufwandfunktion als Funktion der Gradientenrichtung und der Randrichtung für jeden der Mehrzahl von Orten und zum Auswählen der verbundenen Orte entsprechend den minimalen Aufwandfunktionen.
  22. System nach einem der Ansprüche 19 bis 21, bei dem der Prozessor (16) betreibbar ist zum Ermitteln einer geschlossenen geometrischen Form als den Rand.
  23. System nach einem der Ansprüche 19 bis 22, bei dem der Prozessor (16) betreibbar ist zum Ermitteln einer Linie ohne verbundene Enden, als den Rand.
DE102004009143A 2003-04-02 2004-02-25 Randdetektion für eine medizinische Bildgebung Withdrawn DE102004009143A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/405136 2003-04-02
US10/405,136 US7022073B2 (en) 2003-04-02 2003-04-02 Border detection for medical imaging

Publications (1)

Publication Number Publication Date
DE102004009143A1 true DE102004009143A1 (de) 2004-10-28

Family

ID=33097027

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102004009143A Withdrawn DE102004009143A1 (de) 2003-04-02 2004-02-25 Randdetektion für eine medizinische Bildgebung

Country Status (2)

Country Link
US (1) US7022073B2 (de)
DE (1) DE102004009143A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT505631B1 (de) * 2007-06-28 2009-03-15 Advanced Comp Vision Gmbh Acv Verfahren zur extraktion von kanten

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7727153B2 (en) * 2003-04-07 2010-06-01 Sonosite, Inc. Ultrasonic blood vessel measurement apparatus and method
US7244233B2 (en) * 2003-07-29 2007-07-17 Ntd Laboratories, Inc. System and method for utilizing shape analysis to assess fetal abnormality
US7090640B2 (en) * 2003-11-12 2006-08-15 Q-Vision System and method for automatic determination of a region of interest within an image
US7430309B2 (en) * 2004-02-09 2008-09-30 Institut De Cardiologie De Montreal Computation of a geometric parameter of a cardiac chamber from a cardiac tomography data set
DE102004008979B4 (de) * 2004-02-24 2006-12-28 Siemens Ag Verfahren zur Filterung tomographischer 3D-Darstellungen nach erfolgter Rekonstruktion von Volumendaten
DE102004043262B4 (de) * 2004-09-07 2007-06-06 Siemens Ag Verfahren zur Aufnahme von Bildern eines Untersuchungsbereichs eines menschlichen oder tierischen Körpers in einer Magnetresonanzanlage und zugehörige Magnetresonanzanlage
US7885440B2 (en) 2004-11-04 2011-02-08 Dr Systems, Inc. Systems and methods for interleaving series of medical images
US7660488B2 (en) 2004-11-04 2010-02-09 Dr Systems, Inc. Systems and methods for viewing medical images
US7920152B2 (en) 2004-11-04 2011-04-05 Dr Systems, Inc. Systems and methods for viewing medical 3D imaging volumes
US7787672B2 (en) 2004-11-04 2010-08-31 Dr Systems, Inc. Systems and methods for matching, naming, and displaying medical images
US7970625B2 (en) 2004-11-04 2011-06-28 Dr Systems, Inc. Systems and methods for retrieval of medical data
KR100747093B1 (ko) * 2005-01-12 2007-08-07 주식회사 메디슨 초음파 진단 영상을 이용한 대상체의 경계를 자동으로검출하는 방법 및 초음파 진단 시스템
JP4212564B2 (ja) * 2005-02-28 2009-01-21 ザイオソフト株式会社 画像処理方法および画像処理プログラム
US7756325B2 (en) * 2005-06-20 2010-07-13 University Of Basel Estimating 3D shape and texture of a 3D object based on a 2D image of the 3D object
US7831081B2 (en) * 2005-08-15 2010-11-09 Boston Scientific Scimed, Inc. Border detection in medical image analysis
KR20070058785A (ko) * 2005-12-05 2007-06-11 주식회사 메디슨 중재적 시술을 위한 초음파 시스템
US7953614B1 (en) 2006-11-22 2011-05-31 Dr Systems, Inc. Smart placement rules
US8165360B2 (en) * 2006-12-06 2012-04-24 Siemens Medical Solutions Usa, Inc. X-ray identification of interventional tools
US8540635B2 (en) * 2007-07-12 2013-09-24 Siemens Medical Solutions Usa, Inc. Medical diagnostic imaging with hardware generated region of interest border
US20090060332A1 (en) * 2007-08-27 2009-03-05 Riverain Medical Group, Llc Object segmentation using dynamic programming
JP5158679B2 (ja) * 2007-09-14 2013-03-06 国立大学法人岐阜大学 画像処理装置、画像処理プログラム、記憶媒体及び超音波診断装置
US8737703B2 (en) * 2008-01-16 2014-05-27 The Charles Stark Draper Laboratory, Inc. Systems and methods for detecting retinal abnormalities
US8718363B2 (en) * 2008-01-16 2014-05-06 The Charles Stark Draper Laboratory, Inc. Systems and methods for analyzing image data using adaptive neighborhooding
US8331638B2 (en) * 2008-10-10 2012-12-11 Siemens Corporation Creation of motion compensated MRI M-mode images of the myocardial wall
US8380533B2 (en) * 2008-11-19 2013-02-19 DR Systems Inc. System and method of providing dynamic and customizable medical examination forms
CN102473309B (zh) * 2009-07-09 2014-09-24 柯尼卡美能达医疗印刷器材株式会社 轮廓提取装置以及程序
KR20110024522A (ko) * 2009-09-02 2011-03-09 한국원자력연구원 영상신호에서 커브피팅을 이용한 진동 측정 방법 및 시스템
JP5643315B2 (ja) 2009-09-23 2014-12-17 ライトラボ・イメージング・インコーポレーテッド 光干渉断層撮影プローブの作動方法、コンピュータシステム、及び光干渉断層撮影データ収集システム
US8712120B1 (en) 2009-09-28 2014-04-29 Dr Systems, Inc. Rules-based approach to transferring and/or viewing medical images
US9135713B2 (en) 2010-03-15 2015-09-15 Georgia Tech Research Corporation Cranial suture snake algorithm
EP2390681A3 (de) 2010-05-31 2014-03-05 Samsung Medison Co., Ltd. 3D-Ultraschallsystem und Betriebsverfahren für das 3D-Ultraschallsystem
JP4971525B2 (ja) * 2010-07-21 2012-07-11 オリンパスメディカルシステムズ株式会社 画像処理装置及び画像処理装置の制御方法
US8553954B2 (en) * 2010-08-24 2013-10-08 Siemens Medical Solutions Usa, Inc. Automated system for anatomical vessel characteristic determination
EP2658439B1 (de) 2010-12-29 2020-02-12 Dia Imaging Analysis Ltd. Automatische bewertung der linksventrikulären funktion
WO2012114600A1 (ja) * 2011-02-22 2012-08-30 オリンパスメディカルシステムズ株式会社 医用画像処理装置及び医用画像処理方法
CN103458798A (zh) * 2011-04-14 2013-12-18 株式会社日立医疗器械 超声波诊断装置和超声波图像描绘方法
US20130009989A1 (en) * 2011-07-07 2013-01-10 Li-Hui Chen Methods and systems for image segmentation and related applications
US9092551B1 (en) 2011-08-11 2015-07-28 D.R. Systems, Inc. Dynamic montage reconstruction
TWI478103B (zh) * 2012-08-10 2015-03-21 國立臺灣大學 使用高度形變微分同胚度量映射法的擴散頻譜造影轉換方法
WO2014103512A1 (ja) * 2012-12-28 2014-07-03 古野電気株式会社 軟組織軟骨境界面検出方法、軟組織軟骨境界面検出装置、および軟組織軟骨境界面検出プログラム
US9495604B1 (en) 2013-01-09 2016-11-15 D.R. Systems, Inc. Intelligent management of computerized advanced processing
BR112015018841A2 (pt) * 2013-02-11 2017-07-18 Koninklijke Philips Nv sistema de imageamento por ultrassom, método para detectar ao menos um contorno de camada de tecido de um objeto de exame, e, programa de computador
CN103400398B (zh) * 2013-07-31 2015-11-04 东北大学 一种基于胸部定位片的心脏自动定位方法
US9292946B2 (en) * 2013-12-20 2016-03-22 Kabushiki Kaisha Toshiba X ray computer tomography apparatus and image processing apparatus
US9519975B2 (en) * 2014-01-08 2016-12-13 Hong Kong Applied Science And Technology Research Institute Co. Ltd. Method of detecting edge under non-uniform lighting background
US20170039321A1 (en) 2015-04-30 2017-02-09 D.R. Systems, Inc. Database systems and interactive user interfaces for dynamic interaction with, and sorting of, digital medical image data
US20170136144A1 (en) 2015-11-12 2017-05-18 John C. Herr Compositions and methods for vas-occlusive contraception
CN106339710B (zh) * 2016-08-25 2019-09-24 凌云光技术集团有限责任公司 一种边缘宽度缺陷检测方法及装置
EP3565484B1 (de) 2017-01-05 2024-04-03 Contraline, Inc. Zusammensetzungen zur implantation und umkehrung von auf stimuli reagierenden implantaten
US12383421B2 (en) 2017-01-05 2025-08-12 Contraline, Inc. Contraceptive devices
CN109993750B (zh) * 2017-12-29 2020-12-25 中国科学院深圳先进技术研究院 一种手腕骨的分割识别方法及系统、终端及可读存储介质
US11596384B2 (en) * 2018-10-26 2023-03-07 Philips Image Guided Therapy Corporation Intraluminal ultrasound vessel border selection and associated devices, systems, and methods
JP7582939B2 (ja) 2018-11-13 2024-11-13 コントラライン,インコーポレイテッド 生体材料を送達するためのシステムおよび方法
US11151372B2 (en) * 2019-10-09 2021-10-19 Elsevier, Inc. Systems, methods and computer program products for automatically extracting information from a flowchart image
CN113538489B (zh) * 2021-07-19 2022-09-09 武汉纺织大学 一种非织造布纤维直径测量方法
US12141420B2 (en) * 2022-10-05 2024-11-12 Shanghai United Imaging Intelligence Co., Ltd. Click based contour editing
CN117095021B (zh) * 2023-08-28 2025-10-03 易思维(杭州)科技股份有限公司 一种基于理论信息的边缘提取方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6708055B2 (en) * 1998-08-25 2004-03-16 University Of Florida Method for automated analysis of apical four-chamber images of the heart
US6364835B1 (en) 1998-11-20 2002-04-02 Acuson Corporation Medical diagnostic ultrasound imaging methods for extended field of view
US6443894B1 (en) 1999-09-29 2002-09-03 Acuson Corporation Medical diagnostic ultrasound system and method for mapping surface data for three dimensional imaging
US6337925B1 (en) * 2000-05-08 2002-01-08 Adobe Systems Incorporated Method for determining a border in a complex scene with applications to image masking
US6503202B1 (en) 2000-06-29 2003-01-07 Acuson Corp. Medical diagnostic ultrasound system and method for flow analysis
US6482161B1 (en) 2000-06-29 2002-11-19 Acuson Corporation Medical diagnostic ultrasound system and method for vessel structure analysis
US6475149B1 (en) 2001-09-21 2002-11-05 Acuson Corporation Border detection method and system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT505631B1 (de) * 2007-06-28 2009-03-15 Advanced Comp Vision Gmbh Acv Verfahren zur extraktion von kanten

Also Published As

Publication number Publication date
US20040197015A1 (en) 2004-10-07
US7022073B2 (en) 2006-04-04

Similar Documents

Publication Publication Date Title
DE102004009143A1 (de) Randdetektion für eine medizinische Bildgebung
DE102008046859B4 (de) 3D Segmentierung von allgemeiner Läsion in CT
DE112004000381B4 (de) Verfahren zur Bereitstellung einer automatischen 3D-Läsionssegmentierung und von Läsionsmessungen
DE69805209T2 (de) System und methode zur automatischen wegplanung
DE69332042T2 (de) Ortungszurückstellung von relativ elastisch verformten räumlichen Bildern durch übereinstimmende Flächen
DE102008023283B4 (de) Verfahren und System zur Segmentierung von schlauchförmigen Strukturen in 3D-Bildern
DE69517524T3 (de) Automatische erkennung von läsionen in der computertomographie
EP1191476B1 (de) Vorrichtung und Verfahren zur Berechnung einer zwei Abbildungen verbindenden Transformation
DE69630935T2 (de) Bilverarbeitungsverfahren und -vorrichtung zur automatischen Erfassung von Bereichen eines vorbestimmten Krebstyps in einem Intensitätsbild
DE102013021729A1 (de) Verbesserung der nadelvisualisierung in der diagnostischen ultraschallbildgebung
EP2284795A2 (de) Quantitative Analyse, Visualisierung und Bewegungskorrektur in dynamischen Prozessen
DE10296836T5 (de) System zur Modellierung statischer und dynamischer dreidimensioner anatomischer Strukturen durch 3D-Modelle
DE102005029607A1 (de) Verfahren und Anordnung zur Visualisierung biologischer Strukturen unter Anwendung von 3D Lageinformation aus Segmentierungsergebnissen
DE10392259T5 (de) Objektkorrespondenzidentifikation ohne volle Volumenregistration
DE602004011933T2 (de) Automatische bestimmung der optimalen betrachtungsrichtung bei herzaufnahmen
DE10059697A1 (de) Verfahren zur automatischen Registrierung dreidimensionaler Bilder
DE102007046582A1 (de) System und Verfahren zum Segmentieren von Kammern eines Herzens in einem dreidimensionalen Bild
DE102010000274A1 (de) Verfahren und Vorrichtung zur automatischen Identifizierung von Bildansichten in einem 3D-Datensatz
DE112005002190T5 (de) Volumetrische Tumorsegmentierung mithilfe eines gemeinsamen Raum-Intensitäts-Likelihood-Verhältnistest
DE102007038058A1 (de) Verfahren zur Verarbeitung radiologischer Bilder zur Detektion von Opazitäten
DE212011100130U1 (de) Auf gleicher Ebene und interaktiv stattfindende Oberflächennetz-Anpassung
DE102009038436B4 (de) Verfahren zur Segmentierung eines Organs in Volumendatensätzen der Magnetresonanztomographie
DE102006054822A1 (de) Registrierung eines charakteristischen Pfads eines Kolons
DE10304360A1 (de) Unstarre Bilderfassung unter Verwendung von Abstandsfunktionen
DE10054814A1 (de) Verfahren und Vorrichtung zur Registrierung von Bildern

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8139 Disposal/non-payment of the annual fee