[go: up one dir, main page]

DE102008045275A1 - Verfahren zur Registrierung von Bilddaten - Google Patents

Verfahren zur Registrierung von Bilddaten Download PDF

Info

Publication number
DE102008045275A1
DE102008045275A1 DE102008045275A DE102008045275A DE102008045275A1 DE 102008045275 A1 DE102008045275 A1 DE 102008045275A1 DE 102008045275 A DE102008045275 A DE 102008045275A DE 102008045275 A DE102008045275 A DE 102008045275A DE 102008045275 A1 DE102008045275 A1 DE 102008045275A1
Authority
DE
Germany
Prior art keywords
image data
rigid elements
segmented
segmented image
elements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102008045275A
Other languages
English (en)
Inventor
Marcus Dr. Wagner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Siemens Corp
Original Assignee
Siemens AG
Siemens Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG, Siemens Corp filed Critical Siemens AG
Priority to DE102008045275A priority Critical patent/DE102008045275A1/de
Publication of DE102008045275A1 publication Critical patent/DE102008045275A1/de
Ceased legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • A61B6/5241Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT combining overlapping images of the same imaging modality, e.g. by stitching
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4504Bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/42Arrangements for detecting radiation specially adapted for radiation diagnosis
    • A61B6/4208Arrangements for detecting radiation specially adapted for radiation diagnosis characterised by using a particular type of detector
    • A61B6/4225Arrangements for detecting radiation specially adapted for radiation diagnosis characterised by using a particular type of detector using image intensifiers
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Pulmonology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Nuclear Medicine (AREA)

Abstract

Die vorliegende Erfindung beschreibt ein Verfahren zur Registrierung von Bilddaten. Das Verfahren umfasst folgende Verfahrensschritte: Bereitstellen von ersten und zweiten Bilddaten, die mittels eines bildgebenden Systems in zeitlichem Abstand von einem starre Elemente aufweisenden Untersuchungsobjekt erfasst wurden, wobei ein oder mehrere der starren Elemente sowohl in den ersten und in den zweiten Bilddaten erfasst sind, Segmentieren der ersten Bilddaten zur Erzeugung erster segmentierter Bilddaten (A), die die in den ersten Bilddaten erfassten starren Elemente enthalten, Segmentieren der zweiten Bilddaten zur Erzeugung zweiter segmentierter Bilddaten (B), die die in den zweiten Bilddaten erfassten starren Elemente enthalten, Identifizieren derjenigen starren Elemente, die sowohl in den ersten und in den zweiten segmentierten Bilddaten (A, B) erfasst sind, und individuelles Registrieren der jeweils den einzelnen identifizierten Elementen in den ersten und zweiten segmentierten Bilddaten (A, B) zugeordneten Bilddatenvolumen.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur Registrierung von Bilddaten. Das Verfahren findet in der Medizintechnik, insbesondere zur Auswertung von Bilddaten, die im Rahmen einer Befundung und/oder Untersuchung eines Patienten mit Knochenläsionen erfasst wurden, Anwendung.
  • Kochenläsionen sind Schädigungen oder krankhafte Störungen der Knochenstruktur. Die Befundung und Auswertung von Knochenläsionen stützt sich gegenwärtig im Wesentlichen auf Bilddaten, die mittels medizinischer bildgebender Systeme, bspw. Computertomographie- oder Magentresonanztomographie-Systeme, erzeugt werden können. Diese Bilddaten werden von dem Radiologen oder behandelnden Arzt durch Sichtung der dabei letztlich erzeugten Bilder befundet. Neben dem Erkennen bzw. Auffinden von Knochenschädigungen und/oder abgebauter Knochenmasse ist weiterhin die Bewertung des zeitlichen Verlaufs lokaler Knochenläsionen bspw. für die Überprüfung der Wirkungen eingeleiteter Therapiemaßnahmen, von großer Bedeutung. Hierzu liegen dem Radiologen oder behandelnden Arzt typischerweise Zeitreihen von Bilddaten, bzw. Bilder vor, die den Zustand der Knochen des Patienten zu einem Zeitpunkt t0 erfassen und bspw. während der Erstuntersuchung erzeugt wurden, sowie weitere Bilddaten, die zu späteren Zeitpunkten t1, t2, ..., d. h. im Rahmen von Folgeuntersuchungen, erzeugt wurden. Eine Auswertung des zeitlichen Verlaufs von Knochenläsionen erfolgt heute durch einen visuellen Vergleich von aus den Bilddaten erzeugten Bildern, die den Zustand der Knochen zu zwei Zeitpunkten zeigen, durch einen Radiologen oder Arzt. Wünschenswert ist in diesem Zusammenhang eine Überlagerung der zu zwei verschiedenen Zeitpunkten erzeugten Bilddaten bzw. der daraus gewonnener Bilder, so dass Veränderungen an den Knochen bspw. durch Differenzbildung der überlagerten Bilddaten leicht erkannt werden können. Problematisch ist jedoch, dass der Patient bei der Erfassung der Bilddaten zu den Zeitpunkten t0, t1, t2, ... nicht jeweils erneut in der exakt gleichen Position auf dem Scannertisch des bildgebenden System zu liegen kommt, und mithin sich einzelne Knochen in ihrer relativen Position und Ausrichtung zueinander in den erfassten Bilddaten unterscheiden.
  • Eine Registrierung des in zwei Bilddaten zeitversetzt erfassten gesamten Skeletts ist mit den bisherigen Registrierungsverfahren nicht möglich, so dass die Auswertung der Bilddaten derzeit im Wesentlichen auf den vorstehend beschriebenen visuellen Vergleich der Bilddaten durch einen Radiologen oder Arzt beschränkt ist. Damit verbunden ist ein hoher zeitlicher Auswerte-Aufwand für den Radiologen oder Arzt sowie die Gefahr des Übersehens von geringfügigen Knochenläsionen.
  • Die Aufgabe der vorliegenden Erfindung besteht darin, ein Verfahren anzugeben, mit dem die vorstehend aufgeführten Probleme behoben werden können.
  • Die Aufgabe wir mit dem Verfahren gemäß dem Anspruch 1 gelöst. Vorteilhafte Ausgestaltungen des Verfahrens sind Gegenstand der Unteransprüche oder lassen sich dem Ausführungsbeispiel entnehmen.
  • Das vorliegende Verfahren zur Registrierung von Bilddaten umfasst folgende Verfahrensschritte:
    • 1.1. Bereitstellen von ersten und zweiten Bilddaten, die mittels eines bildgebenden Systems in zeitlichem Abstand von einem starre Elemente aufweisenden Untersuchungsobjekt erfasst wurden, wobei ein oder mehrere der starren Elemente sowohl in den ersten und in den zweiten Bilddaten erfasst sind,
    • 1.2. Segmentieren der ersten Bilddaten zur Erzeugung erster segmentierter Bilddaten, die die in den ersten Bilddaten erfassten starren Elemente enthalten,
    • 1.3. Segmentieren der zweiten Bilddaten zur Erzeugung zweiter segmentierter Bilddaten, die die in den zweiten Bilddaten erfassten starren Elemente enthalten,
    • 1.4. Identifizieren derjenigen starren Elemente, die sowohl in den ersten und in den zweiten segmentierten Bilddaten erfasst sind, und
    • 1.5. individuelles Registrieren der jeweils den einzelnen identifizierten Elementen in den ersten und zweiten segmentierten Bilddaten zugeordneten Bilddatenvolumen.
  • Unter dem Begriff „Registrierung” wird allgemein das räumliche in Deckung bringen von in Bilddaten repräsentierten Elementen oder Objekten verstanden. Dabei können vorliegend bspw. die ersten oder die zweiten segmentierten Bilddaten als Referenzbilddaten gewählt werden. Entsprechende Registrierungsalgorithmen sind im Stand der Technik bekannt.
  • Vorzugsweise wird das erfindungsgemäße Verfahren auf einem Rechnersystem mittels entsprechendem Programmcode umgesetzt, wobei das Rechnersystem vorzugsweise verschiedene Module aufweist, mit denen die Verfahrensschritte 1.1. bis 1.5. ausführbar sind. Das Rechnersystem kann natürlich auch Bestandteil des bildgebenden Systems sein.
  • Im Einzelnen basiert das erfindungsgemäße Verfahren auf dem Bereitstellen von 3D- oder 2D-Bilddaten, die mittels eines bildgebenden Systems, vorzugsweise eines Computertomographen, eines Positronen-Emissionstomographen, eines Einzelphotonen-Emissionstomographen, eines Ultraschall-Systems, oder eines Magnetresonanztomographen, zu zwei verschiedenen Zeiten von einem starre Elemente aufweisenden Untersuchungsobjekt erzeugt wurden. Das bildgebende System zur Erfassung der ersten Bilddaten kann sich dabei von dem bildgebenden System zur Erfassung der zweiten Bilddaten unterscheiden, so dass bspw. die ersten Bilddaten mittels eines Computertomographen und die zweiten Bilddaten mittels eines Magnetresonanztomographen erzeugt werden können. Für Untersuchungen werden typischer weise die ersten und zweiten Bilddaten von ein und demselben bildgebenden System erfasst.
  • Die ersten und zweiten Bilddaten können auch aus einer Zeitreihe von Bilddaten ausgewählt werden, die mittels des bildgebenden Systems von dem starre Elemente aufweisenden Untersuchungsobjekt erfasst wurden. Dabei werden je nach zu beantwortender Fragestellung aus der Zeitreihe zwei Bilddatensätze als erste und zweite Bilddaten ausgewählt.
  • Das Untersuchungsobjekt weist, wie angesprochen, einzeln abgrenzbare, starre Elemente oder starre Objekte, bspw. einzelne Knochen, einzelne Zähne, oder Implantate, auf. Die starren Elemente bestehen vorzugsweise aus identischem Material.
  • Typischerweise werden die zweiten Bilddaten erst dann erzeugt, wenn sich seit der Erfassung der ersten Bilddaten Veränderungen an den einzelnen starren Elementen eingestellt haben können. Am Beispiel der Untersuchung der zeitlichen Entwicklung von Knochenläsionen erfolgt das Erfassen der zweiten Bilddaten bspw. im Rahmen einer Folgeuntersuchung des Patienten im Abstand von Wochen oder Monaten.
  • Da das Untersuchungsobjekt bei der zeitlich beabstandeten Erfassung der ersten und zweiten Bilddaten nicht in der exakt gleichen Position auf einem Scannertisch des bildgebenden Systems zu liegen kommt, können sich die Positionen und Ausrichtungen der starren Elemente im Untersuchungsobjekt relativ zueinander unterscheiden, was eine direkte Überlagerung der ersten und zweiten Bilddaten zum Vergleich lokaler Änderungen an den starren Elementen nicht sinnvoll macht.
  • Gemäß dem erfindungsgemäßen Verfahren werden die bereitgestellten ersten und zweiten Bilddaten zunächst jeweils segmentiert, wobei erste und zweite segmentierte Bilddaten erzeugt werden, die ausschließlich die starren Elemente, die vorzugsweise aus identischem Material bestehen, repräsentieren. Entsprechende Segmentierungsverfahren sind im Stand der Technik bekannt. Die ersten und zweiten segmentierten Bilddaten repräsentieren somit die einzeln abgegrenzetn, starren Elemente des Untersuchungsobjektes.
  • In einem weiteren Verfahrensschritt erfolgt ein Identifizieren derjenigen starren Elemente, die sowohl in den ersten und in den zweiten segmentierten Bilddaten erfasst sind. In besonders bevorzugter Weise erfolgt dieses Identifizieren nur für diejenigen starren Elemente, die vollständig in den ersten und zweiten Bilddaten repräsentiert sind. Im letzteren Fall werden starre Elemente, die nur teilweise in den Bilddaten erfasst sind beim weiteren Verfahrensablauf nicht berücksichtigt.
  • Das Identifizieren der starren Elemente kann visuell durch eine Bedienperson erfolgen, wobei bspw. die segmentierten ersten und zweiten Bilddaten auf einem Anzeigemittel angezeigt werden und die Bedienperson durch Anklicken, bspw. mittels einer Computermouse, ein Element im ersten, und dasselbe Element im zweiten segmentierten Bilddatensatz identifiziert. Alternativ kann das Identifizieren der starren Element in den ersten und zweiten segmentierten Bilddaten durch eine Bildverarbeitungssoftware voll- oder teil-automatisiert erfolgen.
  • Als Ergebnis des Identifizierens in Schritt 1.4. sind somit in den ersten und zweiten segmentierten Bilddaten diejenigen starren Elemente bekannt, die in beiden segmentierten Bilddatensätzen erfasst sind. Weiterhin sind damit auch die einem starren Element jeweils zugeordneten Bilddatenvolumen in den ersten und zweiten segmentierten Bilddaten bekannt. Diese Informationen werden für den Verfahrenschritt 1.5. bereitgestellt.
  • In dem Verfahrensschritt 1.5. erfolgt schließlich ein individuelles Registrieren der jeweils den einzelnen identifizierten Elementen in den ersten und zweiten segmentierten Bilddaten zugeordneten Bilddatenvolumen. Damit erfolgt keine Registrierung der Gesamtheit der identifizierten starren Ele mente, sondern erfindungsgemäß wird jedes identifizierte starre Element einzeln registriert. Dies kann je nach verwendetem Programmcode zeitlich nacheinander oder gleichzeitig erfolgen.
  • Als Referenzbilddaten können können beim Registrieren entweder die ersten oder die zweiten segmentierten Bilddaten gewählt werden. Das Registrieren der einzeln starren Elemente in den segmentierten Bilddaten erfolgt vorzugsweise durch Rotation und Translation, so dass für jedes starre Element eine optimale eigene Registrierung in Bezug auf die Referenzbilddaten erfolgt. Nach Abschluss des Verfahrensschrittes 1.5. sind somit sämtliche in Schritt 1.4. identifizierte starre Elemente in dem Referenzdatensatz registriert.
  • In einer besonders bevorzugten Ausführungsvariante des vorliegenden Verfahrens, wird nach Schritt 1.5. eine Subtraktion der die starren Elemente repräsentierenden registrierten Bilddatenvolumen durchgeführt. Das heißt, es wird eine Differenzbildung zwischen Referenzdatensatz und den damit registrierten Bilddaten durchgeführt. Die dabei verbleibenden Differenz-Bilddaten repräsentieren die Veränderungen der Form der jeweiligen starren Elemente in der Zeit, die zwischen dem Erfassen der ersten und zweiten Bilddaten verging.
  • In einer bevorzugten Ausführungsvariante des erfindungsgemäßen Verfahrens werden die Verfahrensschritte 1.4. und 1.5. für eine vorgebbare Untermenge der ersten und/oder zweiten segmentierten Bilddaten durchgeführt. Dies führt zu einer Reduktion des Rechenaufwandes und der damit verbundenen Rechenzeit.
  • Das vorliegende Verfahren wird nachfolgend anhand eines Ausführungsbeispiels nochmals näher erläutert. Hierbei zeigen:
  • 1 erste (A) und zweite (B) segmentierte 3D-Bilddaten in schematisierter Darstellung als Volumenbild, in dem jeweils Knochen (A1, ..., A7 bzw. B1, ..., B11) der Wirbelsäule eines Patienten abgebildet sind, wobei die 3D-Bilddaten mittels eines bildgebenden Systems von dem Patienten in zeitlichem Abstand erzeugt wurden, und einige Knochen zeitlich veränderliche Knochenläsionen aufweisen, und
  • 2 überlagerte, registrierte segmentierte 3D-Bilddaten in schematisierter Darstellung als Volumenbild, wobei die ersten segmentierten 3D-Bilddaten im Bildvolumen A' als Referenzdaten dienen, in die die einzelnen, identifizierten Knochen aus den zweiten segmentierten 3D-Bilddaten einzeln registriert sind.
  • Das folgende Ausführungsbeispiel erläutert eine der Haupanwendungen des erfindungsgemäßen Verfahrens, nämlich die Untersuchung und Auswertung der zeitlichen Veränderung von Knochenläsionen.
  • Hierzu wurden zunächst erste und zweite 3D-Bilddaten mittels eines CT-Systems von der Wirbelsäule eines Patienten in zeitlichem Abstand erzeugt. Die ersten 3D-Bildddaten wurden anlässlich der Erstuntersuchung des Patienten gewonnen. Die zweiten 3D- Bilddaten wurden anlässlich einer Folgeuntersuchung des Patienten gewonnen. Die ersten und zweiten 3D-Bilddaten werden zunächst zur Erzeugung von ersten und zweiten segmentierten 3D-Bilddaten segmentiert, so dass in den ersten und zweiten segmentierten 3D-Bilddaten lediglich die einzelnen Knochen der Wirbelsäule des Patienten abgebildet sind.
  • 1 zeigt in der linken Darstellung die ersten segmentierten 3D-Bilddaten (A), in der rechten Darstellung die zweiten segmentierten Bilddaten (B). In den ersten Bilddaten (A) ist im Bilddatenvolumen (A') ein Teil der Wirbelsäule des Patienten mit den einzelnen Wirbelknochen A1, A2, ..., A7 abgebildet. Es sei unterstellt, dass der befundende Arzt oder Radiologe auf Grundlage der Auswertung der ersten 3D-Bilddaten (A) Läsionen an den Wirbelknochen A1, ..., A7 im Bilddatenvolumen (A') festgestellt hat und eine entsprechende Therapie eingeleitet wurde, die der Heilung dieser Läsionen dienen soll. Die für die weitere Untersuchung interessierenden ersten 3D-Bildaten können daher auf das strichliert dargestellte Bilddatenvolumen (A') in den ersten segmentierten 3D-Bilddaten eingeschränkt werden.
  • Wie eingangs erwähnt, wurden nach einiger Zeit, in der die Therapie erste Wirkungen zeitigen konnte, im Rahmen einer Folgeuntersuchung mittels desselben CT-Systems die zweiten 3D-Bilddaten (B) vom Patienten bzw. seiner Wirbelsäule erzeugt. Da der Patient bei der zweiten CT-Aufnahme nicht exakt in derselben Lage auf dem Scantisch des CT-Systems positioniert werden kann, wie zur Erstuntersuchung, ergeben sich in den zweiten 3D-Bilddaten andere Relativpositionen der einzelnen Wirbelknochen B1, ..., B11 sowie andere relative Ausrichtungen der einzelnen Wirbelknochen B1, ..., B11 zueinander, so dass eine einfache Registrierung der ersten und zweiten 3D-Bilddaten nicht realisierbar ist. Diese unterschiedlichen relativen Positionen der Wirbelknochen bzw. deren unterschiedliche Ausrichtung relativ zueinander ist in den ersten und zweiten segmentierten 3D-Bilddaten bei einem Vergleich der rechten und linken Darstellung von 1 erkennbar.
  • In dem vierten Verfahrensschritt erfolgt nun ein Identifizieren derjenigen Wirbelknochen, die sowohl im Bilddatenvolumen (A') und in den zweiten (B) segmentierten Bilddaten erfasst sind. Dies erfolgt vorliegend visuell durch einen Radiologen bzw. eine Bedienperson, die anhand des auf einem Anzeigemittel dargestellten Bilddatenvolumens (A') und der ebenfalls angezeigten zweiten segmentierten Bilddaten eine Identifikation derjenigen Elemente durchführt, die in beiden Bilddaten (A', B) repräsentiert sind, bspw. durch Anklicken der entsprechenden Wirbelknochen, in den beiden Bilddarstellungen.
  • Dabei sei unterstellt, dass die in 1 angedeuteten Wirbelknochen A1, ..., A7 den Wirbelknochen B4, ..., B10 entsprechen.
  • Die Bedienperson kann somit mittels des Anzeigemittels visuell erkennen, dass die Wirbelknochen A1 und B4, A2 und B5, ..., und A7 und B10 einander entsprechen. Die durch diese Identifikation gewonnene Information über die Zuordnung einzelner in den ersten und zweiten segmentierter Bilddaten (A, B) repräsentierten Wirbelknochen wird für den Verfahrensschritt 1.5. bereitgestellt.
  • Alternativ zum manuellen bzw. visuellen Identifizieren durch eine Bedienperson in Schritt 1.4., kann das Identifizieren mittels einer entsprechenden Bildverarbeitungssoftware automatisiert erfolgen.
  • Nach der der Identifizierung derjenigen starren Elemente, die sowohl in den ersten und in den zweiten segmentierten Bilddaten (A, B) erfasst sind, erfolgt schließlich das individuelle Registrieren der jeweils den einzelnen identifizierten Elementen in den ersten und zweiten segmentierten Bilddaten zugeordneten Bilddatenvolumen. Dieses Registrieren erfolgt in Schritt 1.5. somit für alle in Schritt 1.4. identifizierten starren Elemente einzeln.
  • Das Registrieren der einzelnen starren Elemente in Schritte 1.5. erfolgt weiterhin vorzugsweise automatisiert mittels bekannter Registrierungsalgorithmen.
  • Zur Darstellung und Auswertung von Veränderungen der Knochenläsionen erfolgt vorzugsweise nach Schritt 1.5. eine Subtraktion der die starren Elemente repräsentierenden registrierten Bilddatenvolumen.
  • Das vorliegende Verfahren ermöglicht eine zeitsparende und genaue Registrierung von ersten und zweiten Bilddaten, die mittels eines bildgebenden Systems in zeitlichem Abstand von einem starre Elemente aufweisenden Untersuchungsobjekt erfasst wurden, wobei ein oder mehrere der starren Elemente sowohl in den ersten und in den zweiten Bilddaten erfasst sind und sich die relativen Positionen und Ausrichtungen der star ren Elemente zueinander in den ersten und zweiten Bilddaten unterscheiden.

Claims (15)

  1. Verfahren zur Registrierung von Bilddaten, mit folgenden Verfahrensschritten: 1.1. Bereitstellen von ersten und zweiten Bilddaten, die mittels eines bildgebenden Systems in zeitlichem Abstand von einem starre Elemente aufweisenden Untersuchungsobjekt erfasst wurden, wobei ein oder mehrere der starren Elemente sowohl in den ersten und in den zweiten Bilddaten erfasst sind, 1.2. Segmentieren der ersten Bilddaten zur Erzeugung erster segmentierter Bilddaten (A), die die in den ersten Bilddaten erfassten starren Elemente enthalten, 1.3. Segmentieren der zweiten Bilddaten zur Erzeugung zweiter segmentierter Bilddaten (B), die die in den zweiten Bilddaten erfassten starren Elemente enthalten, 1.4. Identifizieren derjenigen starren Elemente, die sowohl in den ersten und in den zweiten segmentierten Bilddaten (A, B) erfasst sind, und 1.5. individuelles Registrieren der jeweils den einzelnen identifizierten Elementen in den ersten und zweiten segmentierten Bilddaten (A, B) zugeordneten Bilddatenvolumen.
  2. Verfahren gemäß Anspruch 1, dadurch gekennzeichnet, dass das Registrieren der jeweils den einzelnen identifizierten Elementen in den ersten und zweiten segmentierten Bilddaten (A, B) zugeordneten Bilddatenvolumen zeitlich nacheinander oder gleichzeitig erfolgt.
  3. Verfahren gemäß einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass nach Schritt 1.5. eine Subtraktion der die starren Elemente repräsentierenden registrierten Bilddatenvolumen erfolgt.
  4. Verfahren gemäß einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Schritte 1.4. und 1.5. für eine vorgebbare Untermenge der ersten und/oder zweiten segmentierten Bilddaten (A, B) durchgeführt werden.
  5. Verfahren gemäß einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass das Untersuchungsobjekt ein Lebewesen, insbesondere ein Mensch, ist.
  6. Verfahren gemäß einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass das bildgebende System ein Computer Tomograph, ein Positronen-Emissions Tomograph, ein Einzelphotonen-Emissions Tomograph, ein Ultraschall-System, oder ein Magnetresonanztomograph ist.
  7. Verfahren gemäß einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass das bildgebende System zur Erfassung der ersten Bilddaten sich von dem bildgebenden System zur Erfassung der zweiten Bilddaten unterscheidet.
  8. Verfahren gemäß einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die starren Elemente aus identischem Material bestehen.
  9. Verfahren gemäß einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die starren Elemente Knochen oder Zähne sind.
  10. Verfahren gemäß einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass das Identifizieren der starren Elemente in Schritt 1.3. durch eine Bedienperson erfolgt.
  11. Verfahren gemäß einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass das Identifizieren der starren Elemente in Schritt 1.4. mittels einer Bilddaten-Auswertesoftware automatisiert erfolgt.
  12. Verfahren gemäß einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass die ersten und zweiten Bilddaten aus einer Zeitreihe von Bilddaten ausgewählt werden, die mittels eines oder mehrerer bildgebender Systeme von dem starre Elemente aufweisenden Untersuchungsobjekt erfasst wurden.
  13. Verfahren gemäß einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass die ersten und zweiten Bilddaten 3D- oder 2D-Bilddaten sind.
  14. Verfahren gemäß einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass die ersten und zweiten segmentierten Bilddaten (A, B) 3D- oder 2D-Bilddaten sind.
  15. Verfahren gemäß einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, dass bei Schritt 1.4. nur diejenigen starren Elemente berücksichtigt werden, die vollständig in den ersten und zweiten segmentierten Bilddaten (A, B) erfasst sind.
DE102008045275A 2008-09-01 2008-09-01 Verfahren zur Registrierung von Bilddaten Ceased DE102008045275A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102008045275A DE102008045275A1 (de) 2008-09-01 2008-09-01 Verfahren zur Registrierung von Bilddaten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102008045275A DE102008045275A1 (de) 2008-09-01 2008-09-01 Verfahren zur Registrierung von Bilddaten

Publications (1)

Publication Number Publication Date
DE102008045275A1 true DE102008045275A1 (de) 2009-12-10

Family

ID=41268925

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008045275A Ceased DE102008045275A1 (de) 2008-09-01 2008-09-01 Verfahren zur Registrierung von Bilddaten

Country Status (1)

Country Link
DE (1) DE102008045275A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016067399A1 (ja) * 2014-10-29 2016-05-06 株式会社島津製作所 画像処理装置
JP2018117865A (ja) * 2017-01-25 2018-08-02 富士通株式会社 移動回転情報生成コンピュータプログラム、移動回転情報生成装置、及びその方法
US20240281986A1 (en) * 2023-02-22 2024-08-22 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040022425A1 (en) * 2002-07-31 2004-02-05 Ge Medical Systems Global Technology Company Llc Temporal image comparison method
DE102004057026A1 (de) * 2003-11-26 2005-06-23 GE Medical Systems Global Technology Company, LLC, Waukesha Erfassung zeitlicher Bildveränderungen und Darstellungsverfahren und -vorrichtung
WO2006054191A1 (en) * 2004-11-17 2006-05-26 Koninklijke Philips Electronics N.V. Improved elastic image registration functionality
DE102006035617A1 (de) * 2006-07-31 2008-02-21 Siemens Ag Automatische Bestimmung von Tumorlast
DE102007028906A1 (de) * 2007-06-22 2009-01-02 Siemens Ag Bildakquisitions-, Bildarchivierungs- und Bildvisualisierungssystem und Verfahren zur Unterstützung eines unter nuklearmedizinischer oder radiologischer Bildgebung durchgeführten Stagings oder Restagings zur Registrierung und Beurteilung der Entwicklung räumlich und/oder strukturell veränderlicher pathologischer Strukturen

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040022425A1 (en) * 2002-07-31 2004-02-05 Ge Medical Systems Global Technology Company Llc Temporal image comparison method
DE102004057026A1 (de) * 2003-11-26 2005-06-23 GE Medical Systems Global Technology Company, LLC, Waukesha Erfassung zeitlicher Bildveränderungen und Darstellungsverfahren und -vorrichtung
WO2006054191A1 (en) * 2004-11-17 2006-05-26 Koninklijke Philips Electronics N.V. Improved elastic image registration functionality
DE102006035617A1 (de) * 2006-07-31 2008-02-21 Siemens Ag Automatische Bestimmung von Tumorlast
DE102007028906A1 (de) * 2007-06-22 2009-01-02 Siemens Ag Bildakquisitions-, Bildarchivierungs- und Bildvisualisierungssystem und Verfahren zur Unterstützung eines unter nuklearmedizinischer oder radiologischer Bildgebung durchgeführten Stagings oder Restagings zur Registrierung und Beurteilung der Entwicklung räumlich und/oder strukturell veränderlicher pathologischer Strukturen

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016067399A1 (ja) * 2014-10-29 2016-05-06 株式会社島津製作所 画像処理装置
JPWO2016067399A1 (ja) * 2014-10-29 2017-04-27 株式会社島津製作所 画像処理装置
CN107072607A (zh) * 2014-10-29 2017-08-18 株式会社岛津制作所 图像处理装置
CN107072607B (zh) * 2014-10-29 2019-12-27 株式会社岛津制作所 图像处理装置
JP2018117865A (ja) * 2017-01-25 2018-08-02 富士通株式会社 移動回転情報生成コンピュータプログラム、移動回転情報生成装置、及びその方法
US20240281986A1 (en) * 2023-02-22 2024-08-22 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium

Similar Documents

Publication Publication Date Title
DE102005030646B4 (de) Verfahren zur Kontur-Visualisierung von zumindest einer interessierenden Region in 2D-Durchleuchtungsbildern
DE10311319B4 (de) Verfahren, System und Computerprodukt zur Planung eines Herzinterventionsverfahrens
DE102009040430B4 (de) Vorrichtung, Verfahren und Computerprogramm zur Überlagerung eines intraoperativen Livebildes eines Operationsgebiets oder des Operationsgebiets mit einem präoperativen Bild des Operationsgebiets
DE102005017492B4 (de) Verfahren zum rechnerischen Kompensieren einer periodischen Bewegung eines Organs sowie Bildaufnahmesystem
DE102007010806B4 (de) Verfahren zum Schaffen erweiterter Möglichkeiten bei der Verwendung von für den Einsatz von Registrierungsverfahren ungeeigneten Bilddaten eines Patienten und Röntgenangiographiesystem
DE102019212929A1 (de) Registrieren eines 2D Bildes mit einem 3D Bild
DE102010036538A1 (de) System und Verfahren zum Kompensieren einer respiratorischen Bewegung in akquirierten radiographischen Bildern
DE10136160A1 (de) Verfahren und Vorrichtung zur Registrierung zweier 3D-Bilddatensätze
DE10210650A1 (de) Verfahren zur dreidimensionalen Darstellung eines Untersuchungsbereichs eines Patienten in Form eines 3D-Rekonstruktionsbilds
DE102011005119A1 (de) Verfahren zum Bereitstellen eines 3D-Bilddatensatzes eines physiologischen Objekts mit Metallobjekt darin
DE102004043889B4 (de) Verfahren zum Erzeugen eines nuklearmedizinischen Bildes
DE102016219887A1 (de) Verfahren und System zur Nutzung von Messdaten
DE10338145B4 (de) Verfahren zur Darstellung von 3D Bilddaten
DE102006012945B4 (de) Verfahren zur virtuellen Schichtpositionierung in einem 3D-Volumendatensatz und medizinisches Abbildungssystem
DE102011080682A1 (de) Positionsbestimmung bei einer stereotaktischen Biopsie
DE102013201828A1 (de) Verfahren zu einer Vorbereitung einer interventionellen und/oder diagnostischen Bildgebung mit zumindest zwei unterschiedlichen medizinischen Bildgebungsmodalitäten
EP3499461B1 (de) Darstellung von markern in der medizinischen bildgebung
DE102004003381A1 (de) Verfahren zur Bestimmung der Lage wenigstens einer Schicht in einem Untersuchungsgebiet, in welcher Schicht eine Schichtbildaufnahme erfolgen soll
DE102016226336A1 (de) Verfahren und Vorrichtung zur Erzeugung eines zweidimensionalen Projektionsbildes aus einem dreidimensionalen Bilddatensatz
DE102008045275A1 (de) Verfahren zur Registrierung von Bilddaten
DE102012200686A1 (de) Verfahren und Vorrichtung zur Positionierung einer Röntgenvorrichtung
DE102006008509A1 (de) Verfahren und Vorrichtung zur verbesserten automatischen Detektion von Auffälligkeiten in medizinischen Bilddaten
DE102018211381B4 (de) Gültigkeit eines Bezugssystems
DE102006012943B4 (de) Verfahren zur automatischen Auswertung eines Abbildungsdatensatzes eines Objektes und medizinisches Abbildungssystem
DE102007042922A1 (de) Verfahren zum Herstellen anatomischer Modelle in der Human- und Veterinärmedizin

Legal Events

Date Code Title Description
OAV Applicant agreed to the publication of the unexamined application as to paragraph 31 lit. 2 z1
OP8 Request for examination as to paragraph 44 patent law
8120 Willingness to grant licences paragraph 23
8131 Rejection