[go: up one dir, main page]

DE102009032060B4 - Verfahren und Einrichtung zum Ermitteln der räumlichen Position und/oder Orientierung eines Objektes bei der Durchführung einer bildunterstützten medizinischen Maßnahme - Google Patents

Verfahren und Einrichtung zum Ermitteln der räumlichen Position und/oder Orientierung eines Objektes bei der Durchführung einer bildunterstützten medizinischen Maßnahme Download PDF

Info

Publication number
DE102009032060B4
DE102009032060B4 DE102009032060.1A DE102009032060A DE102009032060B4 DE 102009032060 B4 DE102009032060 B4 DE 102009032060B4 DE 102009032060 A DE102009032060 A DE 102009032060A DE 102009032060 B4 DE102009032060 B4 DE 102009032060B4
Authority
DE
Germany
Prior art keywords
ray
image
orientation
images
object points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102009032060.1A
Other languages
English (en)
Other versions
DE102009032060A1 (de
Inventor
Dr. Barth Karl
Dr. Bulitta Clemens
Dr. Graumann Rainer
Christian Wetzel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare GmbH
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to DE102009032060.1A priority Critical patent/DE102009032060B4/de
Publication of DE102009032060A1 publication Critical patent/DE102009032060A1/de
Application granted granted Critical
Publication of DE102009032060B4 publication Critical patent/DE102009032060B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/58Testing, adjusting or calibrating thereof
    • A61B6/588Setting distance between source unit and detector unit
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/547Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4405Constructional features of apparatus for radiation diagnosis the apparatus being movable or portable, e.g. handheld or mounted on a trolley
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Verfahren zum Ermitteln der räumlichen Position und/oder Orientierung eines Objektes bei der Durchführung einer bildunterstützten medizinischen Maßnahme, bei dem mit einem Röntgenbildgerät (2) wenigstens zwei durch eine projektive Abbildung erzeugte 2D-Röntgenbilder aus unterschiedlichen unbekannten Richtungen aufgenommen werden, in denen die Bildkoordinaten (u, v) von jeweils wenigstens zwei zu identischen Objektpunkten (P1 bis P6) des Objektes gehörenden Bildpunkten (P1' bis P6') ermittelt werden, aus denen die räumliche Position dieser Objektpunkte (P1 bis P6) und/oder die Orientierung dieses Objektes mit einem zumindest teilweise iterativem Verfahren berechnet wird, wobei die Berechnung einer den jeweiligen 2D-Röntgenbildern zugrundeliegenden Projektionsmatrix unter der vereinfachenden Annahme beginnt, dass die projektive Abbildung eine orthographische Projektion ist, und in einem ersten Schritt ein Winkel zwischen den zumindest zwei unterschiedlichen Richtungen ermittelt wird.

Description

  • Die Erfindung bezieht sich auf ein Verfahren und eine Einrichtung zum Ermitteln der räumlichen Position und/oder Orientierung eines Objektes bei der Durchführung einer bildunterstützten medizinischen Maßnahme.
  • Die Durchführung einer medizinischen Maßnahme, insbesondere eines operativen Eingriffes, wird in zunehmendem Maße durch dreidimensionale Bild- bzw. Objektdaten unterstützt. Ein Beispiel hierfür ist z. B. die Rekonstruktion bei multiplen Knochenfrakturen. Während einer solchen Traumarekonstruktion steht zwar gelegentlich ein Volumenbild zur Verfügung. Jedoch ist der geometrische Bezug zur Lage des Patienten auf dem Operationstisch unklar, zumal sich seit der Voruntersuchung oft Verschiebungen ergeben haben. Dieser geometrische Bezug wird z. B. benötigt, um ein chirurgisches Instrument bildgestützt zu führen oder ein Implantat in bestimmter Lage und Orientierung am Patienten anzubringen. Intraoperativ ist es aber oft nicht möglich oder gewünscht, 3D-Röntgen- bzw. Volumenbilder zu erzeugen.
  • Eine Möglichkeit, den geometrischen Bezug herzustellen, stellt die Registrierung mit einem Navigationssystem dar, wie sie beispielsweise aus der DE 103 60 025 A1 bekannt ist. Eine solche Registrierung erfolgt mit Hilfe sogenannter Positionsmarken, die an den verwendeten Geräten und dem Patienten angebracht sind. Derartige Positionsmarken sind z. B. Kugeln, deren räumliche Positionen beispielsweise von einem Stereo-Kamerasystem erfasst werden. Eine solche markerbasierte Registrierung scheidet aber oft aus, weil sie zusätzlichen apparativen Aufwand erfordert.
  • Aus US 2008/0234570 A1 ist ein Verfahren zur Bestimmung der Lage eines Ultraschallprüfkopfes bekannt. Röntgenmarker, die an dem Ultraschallprüfkopf angebracht sind, werden aus verschiedenen Projektionsrichtungen erfasst. Die Projektionsrichtungen müssen bekannt sein, um die Lage des Ultraschallprüfkopfes im Gerätebezugssystem korrekt zuordnen zu können.
  • Aus DE 10 2006 007 255 A1 ist ein weiteres Verfahren zur Bestimmung von geometrischen Parametern eines Röntgenbildgebungssystems bekannt, wobei Änderungen der intrinsischen Parameter des Bildgebungssystems zwischen einer bekannten Referenzstellung und einer willkürlichen zweiten Stellung auf Grundlage von 2D-Bildern bestimmt wird.
  • Navab et al. beschreibt in „Lines in One Orthographic and Two Perspective Views” (IEEE Conf. on Computer Vision and Pattern Recognition, 2000, Vol. 2, S. 607 bis 614) einen linearen Algorithmus zur Bestimmung einer euklidischen Bewegung im Falle von einer orthografischen und zwei perspektivischen Ansichten.
  • Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zum Ermitteln der räumlichen Position und/oder Orientierung eines Objektes bei der Durchführung einer bildunterstützten medizinischen Maßnahme anzugeben, das ohne die Verwendung eines Navigationssystems mit einfachen Mitteln durchführbar ist. Außerdem liegt der Erfindung die Aufgabe zugrunde, eine Einrichtung zum Durchführen des Verfahrens anzugeben.
  • Hinsichtlich des Verfahrens und der Einrichtung werden die genannten Aufgaben gelöst mit den verfahrensgegenständlichen Merkmalen des Patentanspruches 1 und mit den gegenständlichen Merkmalen des Patentanspruches 15.
  • Gemäß diesen Gegenständen werden zum Ermitteln der räumlichen Position oder Orientierung eines Objektes bei der Durchführung einer bildunterstützten medizinischen Maßnahme wenigstens zwei 2D-Röntgenbilder aus unterschiedlichen Richtungen aufgenommen. In diesen 2D-Röntgenbildern werden die Bildkoordinaten von jeweils wenigstens zwei zu identischen Objektpunkten des Objektes gehörenden Bildpunkten ermittelt, und es werden aus diesen Bildkoordinaten die räumlichen Positionen dieser Objektpunkte und/oder die Orientierung des Objekts mit einem zumindest teilweise iterativen Verfahren berechnet. Zumindest teilweise iterativ im Sinne der vorliegenden Erfindung heißt, dass das Verfahren auch, beispielsweise bei der Ermittlung von Startwerten für die Iteration, analytische Rechenschritte umfassen kann.
  • Durch die gemäß der Erfindung vorgeschlagene Vorgehensweise ist es möglich, mit wenigen, während der Durchführung des medizinischen Eingriffes erzeugten 2D-Röntgenbildern, d. h. mit nur geringer Dosisbelastung räumliche Positionsdaten eines Objektes, d. h. dessen Position und/oder Orientierung im Raum, d. h. in einem ortsfesten Bezugssystem zu ermitteln. Grundsätzlich reichen hierzu zwei aus unterschiedlichen Richtungen aufgenommene 2D-Röntgenbilder aus. Ort und Winkelstellung des Aufnahmegeräts müssen dabei nicht bekannt sein, d. h. es kann ein „einäugiges” Röntgenbildgerät, insbesondere ein C-Bogen-Röntgengerät, verwendet werden, dessen Röntgenempfänger und Röntgenquelle zwischen den zumindest zwei 2D-Röntgenbildern gemeinsam z. B. um das sogenannte Isozentrum geschwenkt werden können, und das auch in seiner Gesamtheit translatorisch verschoben werden kann. Mit anderen Worten: Mit dem Verfahren gemäß der Erfindung ist es dem Anwender möglich, sich im Raum zu orientieren, obwohl nur wenige 2D-Röntgenbilder erstellt werden müssen. Darüber hinaus stehen dem Anwender mit diesen 2D-Röntgenbildern aktuelle 2D-Röntgenbilder zur Verfügung, mit denen zugleich kontrolliert werden kann, ob die Maßnahme, beispielsweise das Anbringen einer Platte zum Überbrücken einer Fraktur, richtig durchgeführt worden ist, oder ob eine Korrektur vorgenommen werden muss. Insbesondere können die berechneten Objektpunkte mit einem künstlichen Objekt, insbesondere einem Modell eines Knochens, ortsrichtig überlagert werden und es kann auf diese Weise eine verbesserte physikalische 3D-Wiederherstellung des Objekts anhand weniger 2D-Röntgenaufnahmen vorgenommen werden.
  • Das Verfahren wird auf dem projektiven Abbildungsmechanismus von räumlichen Objekten in zweidimensionalen Bildern aufgebaut, der am allgemeinsten als eine Matrixoperation in homogenen Koordinaten beschrieben wird, wobei jedem 2D-Röntgenbild eine den jeweiligen geometrischen Aufnahmebedingungen entsprechende Projektionsmatrix M zugeordnet ist: vb = M·vv mit
  • M:
    homogene 4×4 Projektionsmatrix für ein 2D-Röntgenbild, die für die Projektion auf eine Ebene auch auf eine 3×4 Projektionsmatrix verkürzt werden kann
    vb:
    Spaltenvektor in homogenen 2D-Bildkoordinaten vb = (r, s, t)
    vv:
    Spaltenvektor in homogenen 3D-Raum(Volumen)koordinaten vv = (x, y, z, w)
  • Durch Normierung der Vektoren vb = (r, s, t) auf (u, v, l) erhält man die tatsächlichen 2D-Bildkoordinaten. Für jeden Objektpunkt (x, y, z, w = 1) im beobachteten Raumbereich ergibt sich damit eine numerisch direkt erfassbare 2D-Position (u, v, l) im 2D-Röntgenbild. Die Projektionsmatrix M ist grundsätzlich folgendermaßen aufgebaut:
    Figure DE102009032060B4_0002
  • Dabei wird durch die Koeffizienten r1 bis r9 im Wesentlichen die Rotation, durch die Koeffizienten t1 bis t3 die Translation und durch die Koeffizienten p1 bis p3 die perspektivische Projektion beschrieben. In einem für Röntgenbildgeräte typischen Szenario setzt sich der Rotationsanteil von M in einem fest mit dem Objekt verknüpften Bezugssystem x0, y0, z0 aus einer Rotation um die z0-Achse und aus einer Rotation um die x0-Achse zusammen, beschrieben durch Rotationsmatrizen
    Figure DE102009032060B4_0003
    mit a1 = cosφ1 und b1 = sinφ1 (Drehung um die z0-Achse mit dem Winkel φ1) und a2 = cosφ2 und b2 = sinφ2 (Drehung um die x0-Achse mit dem Winkel φ2). Miteinander multipliziert bestimmen die Rotationsmatrizen Rz und Rx die Koeffizienten r1 bis r9.
  • Wenn der Fokus, also das Projektionszentrum im Ursprung des Gerätebezugssystems (x, y, z) liegt und die Projektionsebene die auf der y-Achse senkrecht stehende x-z-Ebene mit y = d darstellt lautet die Abbildungsmatrix Mp für eine perspektivische Projektion
    Figure DE102009032060B4_0004
  • Gemäß der Erfindung werden mindestens zwei 2D-Röntgenbilder aufgenommen, die sich hinsichtlich der ihnen zugeordneten Projektionsmatrizen M unterscheiden. In diesen beiden 2D-Röntgenbildern müssen jeweils mindestens zwei innerhalb des abgebildeten Objektraums liegende Objektpunkte eindeutig identifizierbar sein. Mit anderen Worten: In einem 2D-Röntgenbild werden beispielsweise vom Arzt eine Mehrzahl von Bildpunkten ausgewählt und deren Bildkoordinaten gespeichert, die jeweils eindeutig einem Objektpunkt zugeordnet sind, wobei in den anderen 2D-Röntgenbildern diejenigen Bildpunkte identifiziert werden, die ebenfalls diesen Objektpunkten zugeordnet sind, d. h. in den 2D-Röntgenbildern werden die Bildkoordinaten von jeweils wenigstens zwei zu identischen Objektpunkten des Objektes gehörenden Bildpunkten ermittelt. Das können Objektpunkte des Patienten selbst (z. B. Landmarken, beispielsweise am Knochen) oder Objektpunkte an eingebrachten chirurgischen Instrumenten oder Implantaten wie z. B. Klammern (Clips) oder sogenannten Kirschnerdrähten (K-Drähte) sein.
  • Zwei Objektpunkte im Objektraum und die Bestimmung der Koordinaten (u, v) der ihnen jeweils zugehörigen Bildpunkte in zwei unter voneinander verschiedenen Projektionswinkeln, d. h. aus unterschiedlichen Richtungen aufgenommenen 2D-Röntgenbildern reichen aus, wenn das Röntgenbildgerät nur zwei rotatorische Freiheitsgrade hat und im Übrigen in seiner intrinsischen Geometrie definiert ist. Zwei Rotationsachsen genügen, um eine beliebige Orientierung der Zentralstrahlen der Projektionen einzustellen. Für mehr Freiheitsgrade werden entsprechend mehr in den 2D-Röntgenbildern abgebildete Objektpunkte und deren 2D-Bildkoordinaten benötigt.
  • Vorzugsweise handelt es sich um mehr als zwei Objektpunkte, wobei es günstig ist, wenn von einer Anzahl von Objektpunkten von Objektpunktpaaren jeweils der gegenseitige Abstand bekannt ist. Die Menge der untersuchten Objektpunkte wird als Objektpunktensemble bezeichnet.
  • Die Berechnung einer den jeweiligen 2D-Röntgenbildern zugrundeliegenden Projektionsmatrix beginnt unter der vereinfachenden Annahme, dass die projektive Abbildung eine orthographische Projektion ist. Es wird so weit wie möglich bei näherungsweiser isozentrischer Position der Objektpunkte aufgenommen. Isozentrische Position der Objektpunkte heißt, dass der Schwerpunkt des Objektpunktensembles zumindest annähernd im Drehpunkt des Röntgenbildgerätes liegt. Unter der vereinfachenden Annahme einer orthographischen Projektion erfolgt in einem ersten Schritt die Bestimmung der die Rotation des Röntgenbildgerätes bezüglich des Objektpunktensembles zwischen den einzelnen Röntgenaufnahmen beschreibenden Koeffizienten r1 bis r9 der Projektionsmatrix M. Daran schließt sich die Berechnung der die Translation des Röntgenbildgerätes zwischen den aus zwei unterschiedlichen Richtungen erzeugten 2D-Röntgenbildern beschreibenden Koeffizienten t1 bis t3 an. Sind diese Koeffizienten der Projektionsmatrizen bekannt, können aus den Bildkoordinaten die 3D-Raum- bzw. Volumenkoordinaten für alle Objektpunkte des Objektpunktensembles in einem ortsfesten Bezugssystem, bei dem es sich um das Gerätebezugssystem in einer der Aufnahmepositionen, beispielsweise in der Startposition handeln kann, näherungsweise bestimmt werden.
  • In einer Variante des Verfahrens werden paarweise 2D-Röntgenbilder aus etwa um 90° voneinander verschiedenen Winkeln erstellt (beispielsweise biplan und dabei z. B. anteriorposterior (AP) und lateral (LAT)). In diesem Fall können Startwerte für die 3D-Raum- bzw. Volumenkoordinaten für alle Objektpunkte des Objektpunktensembles einfacher ermittelt werden.
  • Im weiteren Verfahren werden alle diese Berechnungen wiederholt und damit iterativ verfeinert. Vor oder während dieser Iteration werden der oder die Koeffizienten p1 bis p3 für die perspektivische Projektion gesetzt und damit alle Koeffizienten ohne die genannte orthographische Näherung auf ein Endergebnis hin verfeinert. Als Startwerte der Koeffizienten p1 bis p3 können Erfahrungswerte oder Schätzwerte dienen oder es kann die bekannte Gerätegeometrie verwendet werden.
  • Weitere vorteilhafte Ausgestaltungen des Verfahrens sind in den Unteransprüchen angegeben.
  • Zur weiteren Erläuterung der Erfindung wird auf das anhand der Figuren dargelegte Ausführungsbeispiel verwiesen. Es zeigen:
  • 1 eine Einrichtung gemäß der Erfindung in zwei voneinander verschiedenen Aufnahmepositionen,
  • 2 die zu den beiden Aufnahmepositionen gehörenden Projektionsgeometrien sowie ein mit dem Patienten verknüpftes Patientenkoordinatensystem,
  • 3 die zu den beiden Aufnahmepositionen jeweils gehörenden Gerätebezugssysteme,
  • 4 eine aus Drehung und Verschiebung zusammengesetzter Bewegung des Gerätebezugssystems in der Zeichenebene,
  • 5 ein Flussdiagramm, in dem der Ablauf des Verfahrens zur Ermittlung der räumlichen Position eines Objektes schematisch erläutert wird.
  • Gemäß 1 ist im Ausführungsbeispiel als Röntgenbildgerät 2 ein C-Bogen-Röntgengerät vorgesehen, bei dem eine Röntgenquelle 4 und ein Röntgenempfänger 6 einander gegenüberliegend an einem C-Bogen 8 angeordnet sind. Der C-Bogen 8 ist höhenverstellbar in Richtung einer vertikalen Achse 9 an einem Gerätewagen 10 angeordnet und kann um zwei zueinander orthogonale, sich in im sogenannten Isozentrum C schneidende in der Zeichenebene bzw. senkrecht dazu verlaufende Schwenkachsen 12 und 14 geschwenkt werden, wie dies durch Doppelpfeile 16 bzw. 18 veranschaulicht ist. Zur Steuerung der Röntgenquelle 4 und des Röntgenempfängers 6 sowie zur Verarbeitung der von diesem empfangenen Signale ist eine Steuer- und Auswerteeinheit 20 vorgesehen, die einen Bildrechner umfasst, in dem die zum Durchführen des erfindungsgemäßen Verfahrens erforderliche Software implementiert ist. In der 1 ist außerdem noch symbolisch ein Monitor 22 zur Bildwiedergabe sowie eine Eingabe- und Bedieneinheit 24 in Form einer Tastatur veranschaulicht.
  • Auf einem Patientenlagerungstisch 30 befindet sich eine Untersuchungsperson 32, an der eine bildunterstützte medizinische Maßnahme durchgeführt werden soll.
  • In 1 ist das C-Bogen-Röntgengerät 2 in zwei Aufnahmepositionen A (durchgezogene Linien) und B (gestrichelte Linien) dargestellt. Diese setzen sich aus einer Drehung des C-Bogens 8 um eine der sich im Isozentrum C schneidenden Schwenkachsen 12 bzw. 14 (im Beispiel der Figur um die senkrecht zur Zeichenebene verlaufende Schwenkachse 14) und einer Translation zusammen, die aus einer Bewegung des Gerätewagens 10 und einer Höhenverstellung des C-Bogens 8 parallel zur Achse 9 zusammengesetzt ist und in der Fig. durch den Doppelpfeil 26 veranschaulicht ist.
  • In der Figur ist außerdem für die Aufnahmeposition A ein Gerätebezugssystem (xA, yA, zA) eingezeichnet, dessen Ursprung im Fokus der Röntgenquelle 4 angeordnet ist. Unter Gerätebezugssystem ist im Folgenden ein Bezugssystem zu verstehen, das ortsfest relativ zum C-Bogen 8 jedoch nicht ortsfest relativ zum Raum, in dem die medizinische Maßnahme stattfindet bzw. zum Patientenlagerungstisch 30 ist.
  • Im dargestellten Ausführungsbeispiel ist außerdem ein Navigationssystem 100 vorgesehen, mit dem die Position des Röntgenbildgerätes 2 erfasst werden kann. Im Beispiel sind hierzu am Röntgenempfänger 6 Positionsmarken 102 angeordnet, die eine Erfassung der aktuellen Position und Orientierung des Röntgenempfängers 6 und damit auch der aktuellen Position und Orientierung des Gerätebezugssystems (xA, yA, zA) im Raum ermöglichen. In der Fig. ist außerdem ein künstliches Objekt, beispielsweise ein medizinisches Instrument 104 veranschaulicht, das ebenfalls mit Positionsmarken 106 versehen ist, so dass dessen Position und Orientierung im Raum ebenfalls vom Navigationssystem 100 erfasst, an die Steuer- und Auswerteeinheit 20 übermittelt und ortsrichtig in die vorher aufgenommenen 2D-Röntgenbilder eingeblendet werden kann.
  • In den Aufnahmepositionen A und B wird jeweils ein 2D-Röntgenbild mit einem von einem Punkt oder Fokus FA bzw. FB der Röntgenquelle 4, in der Regel eine Röntgenröhre, ausgehenden, durch Blenden begrenztes Röntgenstrahlbündel 40A bzw. 40B erzeugt. Auf diese Weise werden die im Röntgenstrahlbündel 40A bzw. 40B liegenden, d. h. von den Röntgenstrahlen durchdrungenen Körperregionen des Patienten 32 auf die Empfangsfläche des Röntgenempfängers 6 projiziert.
  • In 2 ist die den Aufnahmepositionen A und B jeweils zugehörige Projektionsgeometrie veranschaulicht. Die Empfangsfläche 42A bzw. 42B des Röntgenempfängers legt ein zweidimensionales Bildkoordinatensystem (u, v) fest. Objektpunkte innerhalb einer Körperregion der Untersuchungsperson, d. h. Objektpunkte, die innerhalb des von der Empfangsfläche 42A, 42B und dem Fokus FA, FB jeweils aufgespannten Projektionskegels (genauer „Projektionspyramide”) liegen, werden auf die Empfangsfläche projiziert. In der 2 ist schraffiert eine Region 44 veranschaulicht, in der sich die Projektionskegel überschneiden. Objektpunkte P1 bis P4 eines ausgewählten Objektpunktensembles SPi, i = 1 bis i = 6, die sich innerhalb dieser Region 44 befinden, werden bei beiden Projektionen als Bildpunkte P1' bis P4' auf die Empfangsfläche 42A, 42B projiziert. In der Figur sind noch Objektpunkte P5 und P6 eingezeichnet, die nur in der Aufnahmeposition A auf die Empfangsfläche 42A projiziert werden.
  • In 2 ist außerdem ein ortsfestes patientenbezogenes (DICOM-)Koordinatensystem (x0, y0, z0) mit kranial ausgerichteter z0-Achse (parallel zur Längsachse des Patienten) eingezeichnet. Durch Registrierung auf der Basis von mindestens 3 Objektpunkten, die in einem weiteren Datensatz wie z. B. einem CT- oder MR-Datensatz auch dargestellt sind, kann auch der Bezug des Gerätebezugssystems (x, y, z) zum patientenbezogenen Koordinatensystem (x0, y0, z0) des weiteren Datensatzes hergestellt werden. Durch das in 1 dargestellte markerbasierte Navigationssystem, am Gerät und an dem medizinischen Instrument 104 angeordnete Positionsmarken 106 kann somit ein Zusammenhang zwischen dem Gerätebezugssystem (x, y, z), dem patientenbezogenen Koordinatensystem (x0, y0, z0) und dem Instrument 104 hergestellt werden. Damit kann man unter Verwendung des aktuell aufgenommenen und weiterer registrierter Datensätze navigiert am Patienten arbeiten.
  • 3 veranschaulicht in den beiden Aufnahmepositionen A und B ein jeweils mit der Röntgenquelle verbundenes Gerätebezugssystem (xA, yA, zA) bzw. (xB, yB, zB). In diesen Gerätebezugssystemen ist das Objektpunktensemble SPi nicht mehr in Ruhe, wie dies im patientenbezogenen Koordinatensystem (x0, y0, z0) der Fall ist, sondern bewegt sich sowohl rotatorisch als auch möglicherweise translatorisch.
  • Im Ausführungsbeispiel ist der Ursprung der Gerätebezugssysteme (xA, yA, zA) bzw. (xB, yB, zB) jeweils im Fokus FA bzw. FB der Röntgenquelle und es ist mit seiner y-Achse entlang des auf die Mitte der im Abstand d vom Fokus FA, FB befindlichen Empfangsfläche 42A, 42B senkrecht auftreffenden Zentralstrahls 46A, 46B des Röntgenstrahlbündels ausgerichtet, so dass immer eine perspektivische Projektion auf eine Ebene y = d vorgenommen wird. Die Abbildungsmatrix M hierfür ist
    Figure DE102009032060B4_0005
  • Innerhalb dieses Systems kann ein abgebildetes Objektpunktensemble SPi beliebige Rotationen und Translationen erfahren, wobei diese Rotationen und Translationen genau dieselben Punktabbildungen auf dem Röntgenempfänger ergeben, wie wenn das Objektpunktensemble SPi in Ruhe bleiben würde und sich nur das Aufnahmesystem entsprechend bewegt.
  • Betrachtet man, wie in 4 dargestellt, nur die gebräuchlichste Rotation um die z-Achse um den Winkel φ1, ergibt sich diese Projektionsmatrix Mz als
    Figure DE102009032060B4_0006
  • Durch die Koeffizienten a = cosφ1 und b = sinφ1 wird die Rotation beschrieben. Die Koeffizienten t1, t2, t3 beschreiben die Translationen. Der wesentliche Anteil des Koeffizienten t1 geht darauf zurück, dass zur Beschreibung der Drehung um einen außerhalb des Ursprungs des Gerätebezugssystems (xA, yA, zA) liegenden Drehpunkt durch eine virtuelle Bewegung des Objektpunktensembles SPi, dieses zunächst zumindest um den xA-Abstand –d/2 des Geräte-Drehpunktes C verschoben werden muss. Dazu kann für die Objektpunkte P1 bis P4 rechnerisch eine zusätzliche Verschiebung Δd kommen, die von der Verschiebung des Röntgenbildgerätes in x-Richtung herrührt und/oder eine nicht genau isozentrische Geometrie des Gerätes berücksichtigt. Somit ergibt sich die gesamte Verschiebung zu e = –d/2 + Δd. Gegenüber dem xA, yA-Koordinatensystem in Ausgangsstellung A haben die Objektpunkte P1 bis P4 bezogen auf das xB, yB-Koordinatensystem in Stellung B vor der Rotation des Weiteren eine Verschiebung um f = –Δf in yA-Richtung. Verschiebungen und Rotationen der Objektpunkte P1 bis P4 sind nämlich gegenläufig zu Verschiebungen und Rotationen des Gerätekoordinatensystems gegenüber diesen Objektpunkten. Die Größen d/2, Δd und Δf sind in dem in 4 dargestellten Beispiel eingezeichnet. Mit den Pfeilen 50 sind außerdem jeweils orthographische Projektionen auf die u-Achse des Bildkoordinatensystems veranschaulicht.
  • Im dargestellten Beispiel der 4 wird in der Aufnahmeposition A begonnen. Um das Objektpunktensemble SPi um den Drehpunkt, im Beispiel das Isozentrum C, zu rotieren, muss zuerst eine Translation durchgeführt werden, d. h. es müssen die Koordinaten jedes Punktes P1 bis P4 des Objektpunktensembles SPi im Gerätebezugssystem (xA, yA, zA) mit der Translationsmatrix T1
    Figure DE102009032060B4_0007
    transformiert werden. Anschließend erfolgt die Rotation um die z-Achse mit
    Figure DE102009032060B4_0008
    und danach die Translation zurück, d. h. entlang der x-Achse in der Aufnahmeposition B mit h = +d/2
    Figure DE102009032060B4_0009
  • Eine zusätzliche (kleine) Verschiebung des Röntgenbildgerätes in y- und z-Richtung wird dementsprechend durch von Null verschiedene Koeffizienten f und g in der vierten Spalte der Translationsmatrix T1 berücksichtigt. Dabei sind f und g sehr viel kleiner als d.
  • Figure DE102009032060B4_0010
  • Als Gesamtmatrix M ergibt sich somit
  • Figure DE102009032060B4_0011
  • Gemäß 5 werden nun in einem ersten Schritt 60 mindestens zwei 2D-Röntgenbilder aus unterschiedlichen Richtungen, d. h. Winkelpositionen des Röntgenbildgerätes aufgenommen und die Bildkoordinaten eines mindestens zwei Bildpunkte P1' und P2' umfassenden Bildpunktensembles SPi' bestimmt. Vorzugsweise werden dabei zentrale, d. h. in der Nähe der Bildmitte liegende Bildpunkte des Bildpunktensembles SPi' ausgewählt.
  • In einer bevorzugten Variante des Verfahrens wird zunächst in den beiden 2D-Röntgenbildern ein Referenzpunkt S bestimmt. Dabei kann es sich um den realen Bildpunkt handeln, dessen Position in den beiden 2D-Röntgenbildern am wenigsten voneinander abweicht. Alternativ wird anstelle eines solchen realen Bildpunktes als Referenzpunkt S ein virtueller Bildpunkt, vorzugsweise der Schwerpunkt S des Bildpunktensembles SPi' bestimmt. Mit diesem Referenzpunkt S werden für jeden von diesem beabstandeten Bildpunkt P1' ein Bildpunktpaar (S, Pi') gebildet. Die Differenz der Punktkoordinaten der Bildpunktpaare (S, P1') und (S, P2') in der ersten 2D-Röntgenbild (Abbildung) ergibt (Δu1, Δv1) und (Δu2, Δv2). Die Differenz der Punktkoordinaten der Bildpunktpaare (S, P1') bzw. (S, P2') in der zweiten Abbildung ergibt (Δu3, Δv3) bzw. (Δu4, Δv4).
  • Für die weitere Berechnung wird nun näherungsweise von einer orthographischen Projektion ausgegangen, wie in 4 durch die gestrichelt eingezeichneten Pfeile angezeigt. Aus Δu1, Δu2, Δu3 und Δu4 lässt sich dann in einem nächsten Schritt 64 sowohl der Rotationswinkel φ1 für die Rotation R als auch der tatsächliche Abstand c der Objektpunkte P1 und P2 im patientenbezogenen Koordinatensystem (x0, y0, z0) bestimmen nach den Beziehungen
    Figure DE102009032060B4_0012
    mit r1 = r2 = 0. Diese Gleichungen werden iterativ gelöst, indem beispielsweise Startwerte für den Winkel φ1 und den Abstand c gesetzt und diese solange variiert werden, bis z. B. sowohl r1 als auch r2 kleiner sind als eine vorgegebene Schwelle. In einer Variante des Verfahrens lässt sich der Rotationswinkel φ1 dadurch ermitteln, dass das Verhältnis der Δu der Punkte aus verschiedenen Projektionen als Verhältnis der so genannten Richtungscosinusse interpretiert wird und daraus der Winkel bestimmt wird.
  • Die Kenntnis des Abstands c ist nicht a priori erforderlich, kann aber zur Beschleunigung des Verfahrens und zur Steigerung der Genauigkeit verwendet werden. In gleicher Weise kann das Verfahren beschleunigt werden, wenn beispielsweise die Winkel eines von drei Objektpunkten aufgespannten Dreiecks bekannt sind. Mit anderen Worten: Wenn räumliche Beziehungen zwischen den Objektpunkten des Objektes bekannt sind, kann das Verfahren erheblich vereinfacht bzw. beschleunigt werden. Hierzu werden vorteilhafterweise künstliche Objekte in den Strahlengang des Röntgenstrahls eingebracht und räumlich fixiert, die Objektpunkte aufweisen, deren Relativkoordinaten bekannt sind. Alternativ hierzu ist es auch möglich, die Berechnung dadurch zu beschleunigen, dass künstliche Objekte in den Strahlengang des Röntgenstrahls eingebracht werden und zwischen Röntgenaufnahmen definiert bewegt werden, wobei die Bewegung zwischen Röntgenaufnahmen erfolgen kann, die aus unterschiedlichen oder identischen Richtungen, d. h. aus ein und derselben Position des Röntgenbildgerätes aufgenommen werden.
  • Für eine Rotation um die z-Achse werden zur Berechnung des Rotationswinkels φ1 nur die u-Werte der Bildpunkte P1' und P2' auf dem Röntgenempfänger benötigt. Bereits aus der Kenntnis der dazu senkrechten Komponenten v in einer der beiden Abbildungen kann die Orientierung der Objektpunkte P1 und P2 im Raum, d. h. der Richtungsvektor zwischen diesen Objektpunkten P1 und P2 im Raum bestimmt und auf Basis der in diesem Sinne redundanten anderen Abbildung verfeinert und bestätigt werden.
  • Im nächsten Schritt 66 werden die der Drehung überlagerten Translationen durch Ermittlung der Verschiebung mindestens eines Bildpunktes Pi' zwischen dem ersten 2D-Röntgenbild und dem zweiten 2D-Röntgenbild unter Berücksichtigung der zuvor berechneten Rotation berechnet.
  • Eine verbesserte Variante des Verfahrens bestimmt die Translation aus der Verschiebung der Position eines ausgewählten Bildpunktes, beispielsweise des Schwerpunkts S des Bildpunktensembles SPi' oder des Bildpunkts mit der geringsten Verschiebung seiner Bildposition zwischen den beiden 2D-Röntgenbildern.
  • Nach dieser auf der Basis einer orthographischen Projektion erfolgten näherungsweisen Ermittlung der 3D-Koordinaten d. h. der jeweiligen den Objektpunkten Pi zugeordneten Koordinatentripel (Objektpunktkoordinaten) des Objektpunktensembles SPi in einem Ausgangs- oder Referenzkoordinatensystem, das beispielsweise mit dem Gerätebezugssystem (xstart, ystart, zstart) des Röntgenbildgerätes in einer vorgegebenen Startposition, in der beispielsweise Röntgenquelle und Röntgenempfänger horizontal einander gegenüberliegen, wird im Schritt 68 die vollständige perspektivische Projektion bzw. Rückprojektion durchgeführt, wobei in der zugehörigen Projektionsmatrix von einem bekannten Wert für den Abstand d zwischen dem Projektionszentrum (Fokus der Röntgenquelle) und dem Zentrum der Abbildung (Röntgendetektor) ausgegangen wird. Alternativ hierzu ist es besonders vorteilhaft, wenn dieser Abstand für jedes aufgenommen 2D-Röntgenbild vorab ermittelt und zur Berechnung der räumlichen Position der Objektpunkte oder der Orientierung des Objektes herangezogen wird. In diesem Fall kann die Röntgenquelle und/oder der Röntgenempfänger zwischen den einzelnen Aufnahmen entlang eines Zentralstrahls der von der Röntgenquelle emittierten Röntgenstrahlen bewegt werden, und wird mit den auf diese Weise ermittelten Koordinaten in der Projektion eine Bestimmung der Koordinaten der Objektpunkte verbessert.
  • Anschließend werden iterativ z. B. nacheinander zumindest eine, vorzugsweise alle Objektpunktkoordinaten (Schritt 70) sowie die Rotationen (Schritt 72), d. h. die Winkel der Rotationen, die die Translationen beschreibenden Parameter (Schritt 74) und die Parameter der perspektivischen Projektion (Schritt 68) der jeweiligen Projektionsmatrix M variiert. Dabei ist es nicht zwingend erforderlich, alle diese Schritte 68 bis 74 durchzuführen, wenn bereits nach Durchführen nur einiger dieser Schritte 68 bis 74 ein Resultat für die Objektpunktkoordinaten erzielt wird, das hinreichend genau ist. Hierzu wird ein Maß definiert, um zu bewerten, ob jede Variation eine Verbesserung bewirkt. Falls nicht, wird der Parameter in die entgegengesetzte Richtung verändert.
  • Vorzugsweise erfolgt die Berechnung in der Weise, dass nach Vorgabe der Parameter für die perspektivische Projektion zunächst jeder der Schritte 70 bis 74, beispielsweise unter Umgehung des Schrittes 70 (Ablaufpfeil 76) beginnend mit den Rotationen in Schritt 72, mehrfach nacheinander durchgeführt wird, wie dies im Flussdiagramm der 5 durch die Ablaufpfeile 78 veranschaulicht ist. Hierzu werden die Winkel in kleinen Iterationsschritten verändert. Nach jeder Variation der Rotation wird beispielsweise die Summe der quadratischen Abstände Σ(ui – uip)2 sowie Σ(vi – vip)2 berechnet und als Maß dafür verwertet, ob die Variation zu einer Verbesserung führt, wobei (ui, vi) die tatsächlichen (gemessenen) Bildkoordinaten des Bildpunktes Pi' darstellen und (uip, vip) die Bildkoordinaten des mit der in diesem Iterationsschritt p bestimmten Projektionsmatrix M projizierten, vor dieser Variation im Iterationsschritt p-1 errechneten Objektpunktes Pi.
  • Neben den Abweichungen in den Bildkoordinaten können auch Abweichungen in den Objektpunktkoordinaten (x, y, z) als Maß für die Bewertung der Variation herangezogen werden. Das können z. B. relative oder absolute Positionen, Abstände und/oder Winkel der momentan errechneten Objektpunktkoordinaten sein, verglichen mit vorab bekannten Werten.
  • Die Variationen in einem Schritt werden dann beendet, wenn sich die Summe der quadratischen Abstände nicht mehr verkleinern lässt oder wenn sie kleiner ist als ein vorgegebener Wert (Abbruchkriterium).
  • Anschließend erfolgt nacheinander in gleicher Weise eine Variation der Parameter der anderen Schritte 72 und 74, bis ebenfalls ein vorgegebenes Abbruchkriterium erfüllt wird. Dem Flussdiagramm ist außerdem zu entnehmen, dass nach Beendigung des Schrittes 74 entweder in gleicher Weise wie vorstehend erläutert eine erneute Variation der Rotation im Schritt 72 und anschließend eine erneute Variation der Translation im Schritt 74 durchgeführt wird (Ablaufpfeil 80) oder anschließend eine Variation der Objektpunktkoordinaten gemäß Schritt 70 vorgenommen wird (Ablaufpfeil 82). Das iterative Verfahren wird durch Variation der Parameter der perspektivischen Projektion fortgesetzt (Ablaufpfeil 84).
  • Wenn während dieser Variationen die Summe der quadratischen Abstände einen Wert ergibt, der kleiner ist als ein vorgegebener Wert (Endekriterium), wird das iterative Verfahren beendet (Schritt 86).
  • Mit der beschriebenen Bestimmung der Projektionsgeometrien bei wenigen, wenn möglich zueinander senkrechten Projektionsaufnahmen lässt sich eine modellbasierte 3D-Rekonstruktion realisieren wenn die berechneten Objektpunkte mit einem künstlichen Modell ortsrichtig überlagert werden. Ein solches Modell könnte z. B. ein Knochenmodell sein, das aus statistischen Patientendaten ermittelt wurde. Dieses statistische Knochenmodell kann dann an die mit bekannten Projektionsgeometrien gemessenen 2D-Röntgenbilder optimal angepasst werden. Eine Anwendung dafür ist die Bestimmung der Beinrotation nach Frakturreponierung.
  • Ein wesentlicher Vorteil der Methode liegt darin, dass keine zusätzlichen artifiziellen Positionsmarken benötigt werden, die nur zum Zweck der Positionsbestimmung verwendet werden. Bei der hier beschriebenen Methode können Instrumente, Implantate oder Prothesen, mit solchen Positionsmarken ausgerüstet, z. B. auch darin integriert werden und für die Bestimmung der Projektionsgeometrien herangezogen werden. Alternativ hierzu können auch anatomische Landmarken, d. h. signifikante, gut erkennbare anatomische Strukturen verwendet werden.
  • Bezugszeichenliste
  • 2
    Röntgenbildgerät
    4
    Röntgenquelle
    6
    Röntgenempfänger
    8
    C-Bogen
    9
    vertikale Achse
    10
    Gerätewagen
    12, 14
    Schwenkachse
    16, 18, 26
    Doppelpfeil
    20
    Steuer- und Auswerteeinheit
    24
    Eingabe- und Bedieneinheit
    30
    Patientenlagerungstisch
    32
    Untersuchungsperson
    40A, B
    Röntgenstrahlbündel
    42A, B
    Empfangsfläche
    44
    Region
    46A, B
    Zentralstrahl
    50
    Pfeil
    60, 62, 64, 66, 68, 70, 72, 74, 86
    Schritte
    76, 78, 80, 82, 84
    Ablaufpfeil
    100
    Navigationssystem
    102, 106
    Positionsmarker
    104
    Instrument
    A, B
    Aufnahmeposition
    C
    Isozentrum
    FA, FB
    Fokus
    P1–P6
    Objektpunkt
    P1'–P6'
    Bildpunkt

Claims (16)

  1. Verfahren zum Ermitteln der räumlichen Position und/oder Orientierung eines Objektes bei der Durchführung einer bildunterstützten medizinischen Maßnahme, bei dem mit einem Röntgenbildgerät (2) wenigstens zwei durch eine projektive Abbildung erzeugte 2D-Röntgenbilder aus unterschiedlichen unbekannten Richtungen aufgenommen werden, in denen die Bildkoordinaten (u, v) von jeweils wenigstens zwei zu identischen Objektpunkten (P1 bis P6) des Objektes gehörenden Bildpunkten (P1' bis P6') ermittelt werden, aus denen die räumliche Position dieser Objektpunkte (P1 bis P6) und/oder die Orientierung dieses Objektes mit einem zumindest teilweise iterativem Verfahren berechnet wird, wobei die Berechnung einer den jeweiligen 2D-Röntgenbildern zugrundeliegenden Projektionsmatrix unter der vereinfachenden Annahme beginnt, dass die projektive Abbildung eine orthographische Projektion ist, und in einem ersten Schritt ein Winkel zwischen den zumindest zwei unterschiedlichen Richtungen ermittelt wird.
  2. Verfahren nach Anspruch 1, bei dem in einem zweiten Schritt eine Translation des Röntgenbildgerätes (2) zwischen den aus zwei unterschiedlichen Richtungen aufgenommenen 2D-Röntgenbildern ermittelt und zur Berechnung der räumlichen Position der Objektpunkte (P1 bis P6) oder der Orientierung des Objektes herangezogen wird.
  3. Verfahren nach einem der vorhergehenden Ansprüche, bei dem in jedem 2D-Röntgenbild ein realer oder virtueller Bildpunkt bestimmt wird, mit dem für jeden der anderen Bildpunkte P1' bis P6' und/oder für jeden der Bildpunkte P1' bis P6' ein Bildpunktpaar gebildet und zur Berechnung der räumlichen Position der Objektpunkte (P1 bis P6) oder der Orientierung des Objektes herangezogen wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, bei dem der Abstand zwischen dem Fokus einer Röntgenquelle (4) und dem Röntgenempfänger (6) für jedes aufgenommen 2D-Röntgenbild vorab ermittelt und zur Berechnung der räumlichen Position der Objektpunkte (P1 bis P6) oder der Orientierung des Objektes herangezogen wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, bei dem bei der iterativen Berechnung der Winkel zwischen den zumindest zwei unterschiedlichen Richtungen oder ein Translationsparameter variiert und mindestens eine Ortskoordinate eines Objektpunktes (P1 bis P6) bestimmt wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, bei dem durch Variation von mindestens einer berechneten Ortskoordinate in dem iterativen Verfahren mindestens eine Ortskoordinate eines Objektpunktes (P1 bis P6) genauer bestimmt wird.
  7. Verfahren nach einem der vorhergehenden Ansprüche, bei dem bekannte räumliche Beziehungen zwischen den Objektpunkten (P1 bis P6) des Objektes verwendet werden.
  8. Verfahren nach einem der vorhergehenden Ansprüche, bei dem künstliche Objekte in den Strahlengang des Röntgenstrahls eingebracht und räumlich fixiert werden, die Objektpunkte (P1 bis P6) aufweisen, deren Relativkoordinaten bekannt sind.
  9. Verfahren nach einem der vorhergehenden Ansprüche, bei dem zum Beschleunigen oder Verbessern der Berechnung künstliche Objekte in den Strahlengang des Röntgenstrahls eingebracht werden und dort zwischen Röntgenaufnahmen definiert bewegt werden.
  10. Verfahren nach einem der vorhergehenden Ansprüche, bei dem zum Beschleunigen oder Verbessern der Berechnung künstliche Objekte in den Strahlengang des Röntgenstrahls eingebracht werden und dort zwischen Aufnahmen aus ein und derselben Position des Röntgenbildgerätes (2) definiert bewegt werden.
  11. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die Röntgenquelle (4) und/oder der Röntgenempfänger (6) zwischen den einzelnen Aufnahmen entlang eines Zentralstrahls der von der Röntgenquelle (4) emittierten Röntgenstrahlen bewegt werden.
  12. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die berechneten Objektpunkte (P1 bis P6) mit einem künstlichen Objekt, insbesondere ein Modell eines Knochens, ortsrichtig überlagert werden und auf diese Weise eine vollständige 3D-Rekonstruktion des Objekts vorgenommen wird.
  13. Verfahren nach einem der vorhergehenden Ansprüche, bei dem zusätzlich ein markerbasiertes Navigationssystem (100) verwendet wird.
  14. Verfahren nach einem der Ansprüche 1 bis 11 oder 13, bei dem die 2D-Röntgenbilder gespeichert und mit dem Navigationssystem (100) die Position und Orientierung künstlicher Objekte erfasst und ortsrichtig in die 2D-Röntgenbilder eingeblendet werden.
  15. Einrichtung zum Ermitteln der räumlichen Position oder Orientierung eines Objektes bei der Durchführung einer bildunterstützten medizinischen Maßnahme, mit einem Röntgenbildgerät (2) zum Erzeugen von 2D-Röntgenbildern aus unterschiedlichen Richtungen, und mit einem Bildrechner mit einem darin implementierten Algorithmus zum Durchführen eines der Verfahren nach Anspruch 1 bis 14.
  16. Einrichtung nach Anspruch 15, bei dem als Röntgenbildgerät (2) ein C-Bogen-Röntgengerät vorgesehen ist.
DE102009032060.1A 2009-07-07 2009-07-07 Verfahren und Einrichtung zum Ermitteln der räumlichen Position und/oder Orientierung eines Objektes bei der Durchführung einer bildunterstützten medizinischen Maßnahme Expired - Fee Related DE102009032060B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102009032060.1A DE102009032060B4 (de) 2009-07-07 2009-07-07 Verfahren und Einrichtung zum Ermitteln der räumlichen Position und/oder Orientierung eines Objektes bei der Durchführung einer bildunterstützten medizinischen Maßnahme

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009032060.1A DE102009032060B4 (de) 2009-07-07 2009-07-07 Verfahren und Einrichtung zum Ermitteln der räumlichen Position und/oder Orientierung eines Objektes bei der Durchführung einer bildunterstützten medizinischen Maßnahme

Publications (2)

Publication Number Publication Date
DE102009032060A1 DE102009032060A1 (de) 2011-01-20
DE102009032060B4 true DE102009032060B4 (de) 2016-12-01

Family

ID=43382714

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009032060.1A Expired - Fee Related DE102009032060B4 (de) 2009-07-07 2009-07-07 Verfahren und Einrichtung zum Ermitteln der räumlichen Position und/oder Orientierung eines Objektes bei der Durchführung einer bildunterstützten medizinischen Maßnahme

Country Status (1)

Country Link
DE (1) DE102009032060B4 (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011076338A1 (de) * 2011-05-24 2012-11-29 Siemens Aktiengesellschaft Verfahren und Vorrichtung zur Kalibrierung eines Röntgensystems mit einem verfahrbaren Bildaufnahmesystem
DE102012215294B4 (de) 2012-08-29 2023-06-15 Siemens Healthcare Gmbh Verfahren zum Erzeugen eines Volumenmodells von einem Herz und zugehörige C-Bogen-Röntgenanlage
CN116309877B (zh) * 2023-03-23 2026-01-30 佗道医疗科技有限公司 一种空间模型精度验证装置、验证方法及配准系统精度验证方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10360025A1 (de) * 2003-12-19 2005-07-14 Siemens Ag Verfahren und Einrichtung zur Bildunterstützung eines mit einem medizinischen Instrument durchgeführten operativen Eingriffes
DE102006007255A1 (de) * 2005-02-16 2006-08-17 General Electric Co. Verfahren und Vorrichtung zur Bestimmung geometrischer Parameter für Bilderzeugung
DE102005050917A1 (de) * 2005-10-24 2007-04-26 Siemens Ag Verfahren und Tomographiegerät zur Rekonstruktion einer tomographischen Darstellung eines Objektes
DE102007034221A1 (de) * 2006-09-26 2008-04-03 Siemens Ag Verfahren zur virtuellen Anpassung eines Objekts an ein Körperteil eines Patienten
US20080234570A1 (en) * 2004-03-05 2008-09-25 Koninklijke Philips Electronics, N.V. System For Guiding a Medical Instrument in a Patient Body

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10360025A1 (de) * 2003-12-19 2005-07-14 Siemens Ag Verfahren und Einrichtung zur Bildunterstützung eines mit einem medizinischen Instrument durchgeführten operativen Eingriffes
US20080234570A1 (en) * 2004-03-05 2008-09-25 Koninklijke Philips Electronics, N.V. System For Guiding a Medical Instrument in a Patient Body
DE102006007255A1 (de) * 2005-02-16 2006-08-17 General Electric Co. Verfahren und Vorrichtung zur Bestimmung geometrischer Parameter für Bilderzeugung
DE102005050917A1 (de) * 2005-10-24 2007-04-26 Siemens Ag Verfahren und Tomographiegerät zur Rekonstruktion einer tomographischen Darstellung eines Objektes
DE102007034221A1 (de) * 2006-09-26 2008-04-03 Siemens Ag Verfahren zur virtuellen Anpassung eines Objekts an ein Körperteil eines Patienten

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
NAVAB, N., u. a.: "Lines in One Orthographic and Two Perspective Views". In: IEEE Conf. on Computer Vision and Pattern Recognition, 2000, Vol. 2, S. 607 bis 614. *
NAVAB, N., u. a.: „Lines in One Orthographic and Two Perspective Views". In: IEEE Conf. on Computer Vision and Pattern Recognition, 2000, Vol. 2, S. 607 bis 614.

Also Published As

Publication number Publication date
DE102009032060A1 (de) 2011-01-20

Similar Documents

Publication Publication Date Title
EP2119397B1 (de) Bestimmung einer Kalibrier-Information für ein Röntgengerät
DE102010020781B4 (de) Bestimmung und Überprüfung der Koordinatentransformation zwischen einem Röntgensystem und einem Operationsnavigationssystem
EP1946702B1 (de) Abbildung anatomischer Strukturen
DE102011083876B4 (de) Verfahren zur Bewegungssteuerung einer Röntgenvorrichtung und Röntgensystem
DE60032475T2 (de) Navigationsführung über computergestützte fluoroskopische bildgebung
DE10114099B4 (de) Verfahren zum Detektieren der dreidimensionalen Position eines in einen Körperbereich eingeführten medizinischen Untersuchungsinstruments, insbesondere eines in ein Gefäß eingeführten Katheters
DE102016202512B3 (de) Verfahren zur 2D-3D-Registrierung, Recheneinrichtung und Computerprogramm
DE102016210131A1 (de) Positionieren eines Untersuchungsobjekts für ein Bildgebungsverfahren
EP2044975B1 (de) Verfahren zum Registrieren von 2D-Bilddaten, Computerprogrammprodukt, Navigationsverfahren zum Navigieren eines Behandlungsgerätes im Bereich der Medizin und Recheneinrichtung zum Registrieren von 2D-Bilddaten
EP1894538B1 (de) Verfahren und Vorrichtung zum Bestimmen der Lage von Beckenebenen
DE10323008A1 (de) Verfahren zur automatischen Fusion von 2D-Fluoro-C-Bogen-Bildern mit präoperativen 3D-Bildern unter einmaliger Verwendung von Navigationsmarken
DE102012201798A1 (de) Verfahren und Vorrichtung zur Planung einer Röntgenbildgebung mit geringer Strahlenbelastung
DE102005059301A1 (de) Verfahren und Vorrichtung zur Bestimmung der Akquisitionsgeometrie eines Bildgebungssystems
EP1785093B1 (de) Bildgebungsvorrichtung und Therapieanlage mit einer solchen Bildgebungsvorrichtung
DE102008025538A1 (de) Kalibrierung eines Mehrebenen-Röntgengeräts
EP1348394B1 (de) Planungs- bzw. Navigationsunterstützung durch generische und erfasste Patientendaten mit zweidimensionaler Anpassung
DE102008009266B4 (de) Verfahren und Einrichtung zur Kalibrierung einer Instrumentenlokalisierungseinrichtung mit einer Bildgebungsvorrichtung
EP2111814B1 (de) Verfahren zum Registrieren eines mit fächerförmigen Abbildungsstrahlen generierten 2D-Bilddatensatzes im Bereich der Medizin und dazugehöriges Computerprogrammprodukt sowie Verfahren und System zur automatischen Registrierung eines Körpers basierend auf 2D-Bilddaten zum Einsatz in medizinischen Navigationssystemen
DE102005029242B4 (de) Verfahren zur Aufnahme und Auswertung von Bilddaten eines Untersuchungsobjekts und dazugehörige Einrichtung
DE102016215831A1 (de) Automatische Generierung synthetischer Projektionen
DE102010015060A1 (de) Vorrichtung zur Lagerung, Abtastung, tomographischen Darstellung eines Patienten und Durchführung einer Intervention und Verfahren zur Bestimmung der räumlichen Relation zwischen optischen Aufnahmen und tomographischen Darstellungen
DE102010013498B4 (de) Verfahren zum Ermitteln von dreidimensionalen Volumendaten, Bildgebungsvorrichtung und Datenträger
EP1118962A1 (de) Registrierung von aufeinanderfolgenden tomographischen Datensätzen zur Bewegungsartefaktreduktion
DE102009032060B4 (de) Verfahren und Einrichtung zum Ermitteln der räumlichen Position und/oder Orientierung eines Objektes bei der Durchführung einer bildunterstützten medizinischen Maßnahme
EP2241253A1 (de) Verfahren zum Vervollständigen eines medizinischen Bilddatensatzes

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: A61B0019000000

Ipc: A61B0034000000

R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee