DE102008045275A1 - Image data e.g. three-dimensional image data, registration method for detecting bone lesions in humans, involves individually registering identified rigid elements in segmented image data volume assigned to segmented image datas - Google Patents
Image data e.g. three-dimensional image data, registration method for detecting bone lesions in humans, involves individually registering identified rigid elements in segmented image data volume assigned to segmented image datas Download PDFInfo
- Publication number
- DE102008045275A1 DE102008045275A1 DE102008045275A DE102008045275A DE102008045275A1 DE 102008045275 A1 DE102008045275 A1 DE 102008045275A1 DE 102008045275 A DE102008045275 A DE 102008045275A DE 102008045275 A DE102008045275 A DE 102008045275A DE 102008045275 A1 DE102008045275 A1 DE 102008045275A1
- Authority
- DE
- Germany
- Prior art keywords
- image data
- rigid elements
- segmented
- segmented image
- elements
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
- A61B6/5235—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
- A61B6/5235—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
- A61B6/5241—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT combining overlapping images of the same imaging modality, e.g. by stitching
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5238—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/45—For evaluating or diagnosing the musculoskeletal system or teeth
- A61B5/4504—Bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/42—Arrangements for detecting radiation specially adapted for radiation diagnosis
- A61B6/4208—Arrangements for detecting radiation specially adapted for radiation diagnosis characterised by using a particular type of detector
- A61B6/4225—Arrangements for detecting radiation specially adapted for radiation diagnosis characterised by using a particular type of detector using image intensifiers
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30008—Bone
- G06T2207/30012—Spine; Backbone
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Biophysics (AREA)
- Animal Behavior & Ethology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Pulmonology (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Nuclear Medicine (AREA)
Abstract
Description
Die vorliegende Erfindung betrifft ein Verfahren zur Registrierung von Bilddaten. Das Verfahren findet in der Medizintechnik, insbesondere zur Auswertung von Bilddaten, die im Rahmen einer Befundung und/oder Untersuchung eines Patienten mit Knochenläsionen erfasst wurden, Anwendung.The The present invention relates to a method for registering Image data. The method is used in medical technology, in particular for the evaluation of image data, in the context of a report and / or Examination of a patient with bone lesions were recorded, application.
Kochenläsionen sind Schädigungen oder krankhafte Störungen der Knochenstruktur. Die Befundung und Auswertung von Knochenläsionen stützt sich gegenwärtig im Wesentlichen auf Bilddaten, die mittels medizinischer bildgebender Systeme, bspw. Computertomographie- oder Magentresonanztomographie-Systeme, erzeugt werden können. Diese Bilddaten werden von dem Radiologen oder behandelnden Arzt durch Sichtung der dabei letztlich erzeugten Bilder befundet. Neben dem Erkennen bzw. Auffinden von Knochenschädigungen und/oder abgebauter Knochenmasse ist weiterhin die Bewertung des zeitlichen Verlaufs lokaler Knochenläsionen bspw. für die Überprüfung der Wirkungen eingeleiteter Therapiemaßnahmen, von großer Bedeutung. Hierzu liegen dem Radiologen oder behandelnden Arzt typischerweise Zeitreihen von Bilddaten, bzw. Bilder vor, die den Zustand der Knochen des Patienten zu einem Zeitpunkt t0 erfassen und bspw. während der Erstuntersuchung erzeugt wurden, sowie weitere Bilddaten, die zu späteren Zeitpunkten t1, t2, ..., d. h. im Rahmen von Folgeuntersuchungen, erzeugt wurden. Eine Auswertung des zeitlichen Verlaufs von Knochenläsionen erfolgt heute durch einen visuellen Vergleich von aus den Bilddaten erzeugten Bildern, die den Zustand der Knochen zu zwei Zeitpunkten zeigen, durch einen Radiologen oder Arzt. Wünschenswert ist in diesem Zusammenhang eine Überlagerung der zu zwei verschiedenen Zeitpunkten erzeugten Bilddaten bzw. der daraus gewonnener Bilder, so dass Veränderungen an den Knochen bspw. durch Differenzbildung der überlagerten Bilddaten leicht erkannt werden können. Problematisch ist jedoch, dass der Patient bei der Erfassung der Bilddaten zu den Zeitpunkten t0, t1, t2, ... nicht jeweils erneut in der exakt gleichen Position auf dem Scannertisch des bildgebenden System zu liegen kommt, und mithin sich einzelne Knochen in ihrer relativen Position und Ausrichtung zueinander in den erfassten Bilddaten unterscheiden.Cooking lesions are damage or pathological disorders of the bone structure. The diagnosis and evaluation of bone lesions is currently based essentially on image data which can be generated by means of medical imaging systems, for example computed tomography or magnetic resonance imaging systems. These image data are evaluated by the radiologist or attending physician by viewing the ultimately generated images. In addition to recognizing or finding bone damage and / or degraded bone mass, the evaluation of the temporal course of local bone lesions, for example, for the examination of the effects of initiated therapeutic measures, is also of great importance. For this purpose, the radiologist or treating physician typically has time series of image data or images which record the condition of the patient's bones at a time t 0 and were generated, for example, during the initial examination, as well as further image data which are available at later times t 1 . t 2 , ..., ie in subsequent investigations. An evaluation of the temporal course of bone lesions today is carried out by a visual comparison of images generated from the image data showing the state of the bones at two times by a radiologist or a physician. It is desirable in this context to superimpose the image data generated at two different times or the images obtained therefrom, so that changes to the bones, for example, can easily be detected by subtraction of the superimposed image data. The problem, however, is that the patient in the acquisition of the image data at the times t 0 , t 1 , t 2 , ... does not come again to lie in the exact same position on the scanner table of the imaging system, and thus individual bones in their relative position and alignment with each other in the captured image data.
Eine Registrierung des in zwei Bilddaten zeitversetzt erfassten gesamten Skeletts ist mit den bisherigen Registrierungsverfahren nicht möglich, so dass die Auswertung der Bilddaten derzeit im Wesentlichen auf den vorstehend beschriebenen visuellen Vergleich der Bilddaten durch einen Radiologen oder Arzt beschränkt ist. Damit verbunden ist ein hoher zeitlicher Auswerte-Aufwand für den Radiologen oder Arzt sowie die Gefahr des Übersehens von geringfügigen Knochenläsionen.A Registration of the total recorded in two image data delayed Skeletons is not possible with the previous registration procedure, so that the evaluation of the image data currently substantially on the above described visual comparison of image data by a radiologist or Doctor limited is. This is associated with a high temporal evaluation effort for the radiologist or Doctor as well as the danger of overlooking from minor Bone lesions.
Die Aufgabe der vorliegenden Erfindung besteht darin, ein Verfahren anzugeben, mit dem die vorstehend aufgeführten Probleme behoben werden können.The The object of the present invention is a method to address the issues listed above.
Die Aufgabe wir mit dem Verfahren gemäß dem Anspruch 1 gelöst. Vorteilhafte Ausgestaltungen des Verfahrens sind Gegenstand der Unteransprüche oder lassen sich dem Ausführungsbeispiel entnehmen.The Task we solved with the method according to claim 1. advantageous Embodiments of the method are the subject of the dependent claims or let the embodiment remove.
Das vorliegende Verfahren zur Registrierung von Bilddaten umfasst folgende Verfahrensschritte:
- 1.1. Bereitstellen von ersten und zweiten Bilddaten, die mittels eines bildgebenden Systems in zeitlichem Abstand von einem starre Elemente aufweisenden Untersuchungsobjekt erfasst wurden, wobei ein oder mehrere der starren Elemente sowohl in den ersten und in den zweiten Bilddaten erfasst sind,
- 1.2. Segmentieren der ersten Bilddaten zur Erzeugung erster segmentierter Bilddaten, die die in den ersten Bilddaten erfassten starren Elemente enthalten,
- 1.3. Segmentieren der zweiten Bilddaten zur Erzeugung zweiter segmentierter Bilddaten, die die in den zweiten Bilddaten erfassten starren Elemente enthalten,
- 1.4. Identifizieren derjenigen starren Elemente, die sowohl in den ersten und in den zweiten segmentierten Bilddaten erfasst sind, und
- 1.5. individuelles Registrieren der jeweils den einzelnen identifizierten Elementen in den ersten und zweiten segmentierten Bilddaten zugeordneten Bilddatenvolumen.
- 1.1. Providing first and second image data acquired by means of an imaging system at a time interval from a test object having rigid elements, one or more of the rigid elements being detected in both the first and second image data,
- 1.2. Segmenting the first image data to produce first segmented image data containing the rigid elements detected in the first image data,
- 1.3. Segmenting the second image data to generate second segmented image data including the rigid elements detected in the second image data,
- 1.4. Identifying those rigid elements detected in both the first and second segmented image data, and
- 1.5. individually registering each image data volume associated with the individual identified elements in the first and second segmented image data.
Unter dem Begriff „Registrierung” wird allgemein das räumliche in Deckung bringen von in Bilddaten repräsentierten Elementen oder Objekten verstanden. Dabei können vorliegend bspw. die ersten oder die zweiten segmentierten Bilddaten als Referenzbilddaten gewählt werden. Entsprechende Registrierungsalgorithmen sind im Stand der Technik bekannt.Under The term "registration" becomes common the spatial coincide with elements or objects represented in image data Understood. It can in the present case, for example, the first or the second segmented image data selected as reference image data become. Corresponding registration algorithms are in the state of Technique known.
Vorzugsweise wird das erfindungsgemäße Verfahren auf einem Rechnersystem mittels entsprechendem Programmcode umgesetzt, wobei das Rechnersystem vorzugsweise verschiedene Module aufweist, mit denen die Verfahrensschritte 1.1. bis 1.5. ausführbar sind. Das Rechnersystem kann natürlich auch Bestandteil des bildgebenden Systems sein.Preferably becomes the method according to the invention implemented on a computer system by means of appropriate program code, the computer system preferably having different modules, with which the process steps 1.1. to 1.5. are executable. The computer system can of course also be part of the imaging system.
Im Einzelnen basiert das erfindungsgemäße Verfahren auf dem Bereitstellen von 3D- oder 2D-Bilddaten, die mittels eines bildgebenden Systems, vorzugsweise eines Computertomographen, eines Positronen-Emissionstomographen, eines Einzelphotonen-Emissionstomographen, eines Ultraschall-Systems, oder eines Magnetresonanztomographen, zu zwei verschiedenen Zeiten von einem starre Elemente aufweisenden Untersuchungsobjekt erzeugt wurden. Das bildgebende System zur Erfassung der ersten Bilddaten kann sich dabei von dem bildgebenden System zur Erfassung der zweiten Bilddaten unterscheiden, so dass bspw. die ersten Bilddaten mittels eines Computertomographen und die zweiten Bilddaten mittels eines Magnetresonanztomographen erzeugt werden können. Für Untersuchungen werden typischer weise die ersten und zweiten Bilddaten von ein und demselben bildgebenden System erfasst.Specifically, the method of the invention is based on providing 3D or 2D image data obtained by means of an imaging system, preferably a computer tomograph, a positron emission tomograph, a single photon emission tomograph, an ultra sound system, or a magnetic resonance tomograph, were generated at two different times by a rigid elements having examination object. The imaging system for acquiring the first image data may differ from the imaging system for acquiring the second image data, so that, for example, the first image data can be generated by means of a computer tomograph and the second image data can be generated by means of a magnetic resonance tomograph. For examinations, the first and second image data are typically acquired by one and the same imaging system.
Die ersten und zweiten Bilddaten können auch aus einer Zeitreihe von Bilddaten ausgewählt werden, die mittels des bildgebenden Systems von dem starre Elemente aufweisenden Untersuchungsobjekt erfasst wurden. Dabei werden je nach zu beantwortender Fragestellung aus der Zeitreihe zwei Bilddatensätze als erste und zweite Bilddaten ausgewählt.The first and second image data can also are selected from a time series of image data obtained by means of the Imaging system of the rigid elements having examination object were recorded. Depending on the question to be answered from the time series, two image data sets as first and second image data selected.
Das Untersuchungsobjekt weist, wie angesprochen, einzeln abgrenzbare, starre Elemente oder starre Objekte, bspw. einzelne Knochen, einzelne Zähne, oder Implantate, auf. Die starren Elemente bestehen vorzugsweise aus identischem Material.The Object of investigation has, as mentioned, individually definable, rigid elements or rigid objects, for example, individual bones, individual Teeth, or implants, on. The rigid elements are preferably made of identical material.
Typischerweise werden die zweiten Bilddaten erst dann erzeugt, wenn sich seit der Erfassung der ersten Bilddaten Veränderungen an den einzelnen starren Elementen eingestellt haben können. Am Beispiel der Untersuchung der zeitlichen Entwicklung von Knochenläsionen erfolgt das Erfassen der zweiten Bilddaten bspw. im Rahmen einer Folgeuntersuchung des Patienten im Abstand von Wochen oder Monaten.typically, the second image data are not generated until since the Capture the first image data changes to the individual can have set rigid elements. The example of the investigation The temporal development of bone lesions is detected the second image data, for example, as part of a follow-up examination of Patients at intervals of weeks or months.
Da das Untersuchungsobjekt bei der zeitlich beabstandeten Erfassung der ersten und zweiten Bilddaten nicht in der exakt gleichen Position auf einem Scannertisch des bildgebenden Systems zu liegen kommt, können sich die Positionen und Ausrichtungen der starren Elemente im Untersuchungsobjekt relativ zueinander unterscheiden, was eine direkte Überlagerung der ersten und zweiten Bilddaten zum Vergleich lokaler Änderungen an den starren Elementen nicht sinnvoll macht.There the object to be examined in the temporally spaced detection the first and second image data are not in exactly the same position to lie on a scanner table of the imaging system, can The positions and orientations of the rigid elements in the examination subject relative to each other, which is a direct overlay the first and second image data to compare local changes does not make sense on the rigid elements.
Gemäß dem erfindungsgemäßen Verfahren werden die bereitgestellten ersten und zweiten Bilddaten zunächst jeweils segmentiert, wobei erste und zweite segmentierte Bilddaten erzeugt werden, die ausschließlich die starren Elemente, die vorzugsweise aus identischem Material bestehen, repräsentieren. Entsprechende Segmentierungsverfahren sind im Stand der Technik bekannt. Die ersten und zweiten segmentierten Bilddaten repräsentieren somit die einzeln abgegrenzetn, starren Elemente des Untersuchungsobjektes.According to the inventive method the provided first and second image data first respectively segmented, generating first and second segmented image data Be that exclusively the rigid elements, preferably made of identical material exist, represent. Corresponding segmentation methods are known in the art known. The first and second segmented image data represent thus the individually demarcated, rigid elements of the examination object.
In einem weiteren Verfahrensschritt erfolgt ein Identifizieren derjenigen starren Elemente, die sowohl in den ersten und in den zweiten segmentierten Bilddaten erfasst sind. In besonders bevorzugter Weise erfolgt dieses Identifizieren nur für diejenigen starren Elemente, die vollständig in den ersten und zweiten Bilddaten repräsentiert sind. Im letzteren Fall werden starre Elemente, die nur teilweise in den Bilddaten erfasst sind beim weiteren Verfahrensablauf nicht berücksichtigt.In a further method step is an identification of those rigid elements that are segmented both in the first and in the second Image data are captured. In a particularly preferred manner, this is done Identify only for those rigid elements that are completely in the first and second Represents image data are. In the latter case, rigid elements are only partially are not recorded in the image data in the further procedure considered.
Das Identifizieren der starren Elemente kann visuell durch eine Bedienperson erfolgen, wobei bspw. die segmentierten ersten und zweiten Bilddaten auf einem Anzeigemittel angezeigt werden und die Bedienperson durch Anklicken, bspw. mittels einer Computermouse, ein Element im ersten, und dasselbe Element im zweiten segmentierten Bilddatensatz identifiziert. Alternativ kann das Identifizieren der starren Element in den ersten und zweiten segmentierten Bilddaten durch eine Bildverarbeitungssoftware voll- oder teil-automatisiert erfolgen.The Identifying the rigid elements can be done visually by an operator where, for example, the segmented first and second image data be displayed on a display means and the operator through Click, for example by means of a computer mouse, an element in the first, and identifies the same element in the second segmented image data set. Alternatively, identifying the rigid element in the first and second segmented image data by image processing software fully or partially automated.
Als Ergebnis des Identifizierens in Schritt 1.4. sind somit in den ersten und zweiten segmentierten Bilddaten diejenigen starren Elemente bekannt, die in beiden segmentierten Bilddatensätzen erfasst sind. Weiterhin sind damit auch die einem starren Element jeweils zugeordneten Bilddatenvolumen in den ersten und zweiten segmentierten Bilddaten bekannt. Diese Informationen werden für den Verfahrenschritt 1.5. bereitgestellt.When Result of the identification in step 1.4. are thus in the first and second segmented image data those rigid elements known, which are detected in both segmented image data sets. Farther are thus also the one rigid element associated image data volume in the first and second segmented image data. These Information will be for the process step 1.5. provided.
In dem Verfahrensschritt 1.5. erfolgt schließlich ein individuelles Registrieren der jeweils den einzelnen identifizierten Elementen in den ersten und zweiten segmentierten Bilddaten zugeordneten Bilddatenvolumen. Damit erfolgt keine Registrierung der Gesamtheit der identifizierten starren Ele mente, sondern erfindungsgemäß wird jedes identifizierte starre Element einzeln registriert. Dies kann je nach verwendetem Programmcode zeitlich nacheinander oder gleichzeitig erfolgen.In the process step 1.5. Finally, an individual registration takes place each of the individual identified elements in the first and second segmented image data associated image data volume. This does not register the entirety of the identified ones rigid ele ments, but according to the invention, each identified rigid element individually registered. This can vary depending on the used Program code sequentially or simultaneously.
Als Referenzbilddaten können können beim Registrieren entweder die ersten oder die zweiten segmentierten Bilddaten gewählt werden. Das Registrieren der einzeln starren Elemente in den segmentierten Bilddaten erfolgt vorzugsweise durch Rotation und Translation, so dass für jedes starre Element eine optimale eigene Registrierung in Bezug auf die Referenzbilddaten erfolgt. Nach Abschluss des Verfahrensschrittes 1.5. sind somit sämtliche in Schritt 1.4. identifizierte starre Elemente in dem Referenzdatensatz registriert.When Reference image data can can when registering either the first or the second segmented Image data selected become. Registering the individually rigid elements in the segmented Image data is preferably by rotation and translation, so that for every rigid element has its own optimal registration to the reference image data. After completion of the process step 1.5. are thus all in step 1.4. identified rigid elements in the reference data set registered.
In einer besonders bevorzugten Ausführungsvariante des vorliegenden Verfahrens, wird nach Schritt 1.5. eine Subtraktion der die starren Elemente repräsentierenden registrierten Bilddatenvolumen durchgeführt. Das heißt, es wird eine Differenzbildung zwischen Referenzdatensatz und den damit registrierten Bilddaten durchgeführt. Die dabei verbleibenden Differenz-Bilddaten repräsentieren die Veränderungen der Form der jeweiligen starren Elemente in der Zeit, die zwischen dem Erfassen der ersten und zweiten Bilddaten verging.In a particularly preferred embodiment of the present method is after step 1.5. subtracting the registered image data volumes representing the rigid elements. That is, a difference is made between the reference data set and the image data registered therewith. The remaining difference image data represents the changes in the shape of the respective rigid elements in the time elapsed between the detection of the first and second image data.
In einer bevorzugten Ausführungsvariante des erfindungsgemäßen Verfahrens werden die Verfahrensschritte 1.4. und 1.5. für eine vorgebbare Untermenge der ersten und/oder zweiten segmentierten Bilddaten durchgeführt. Dies führt zu einer Reduktion des Rechenaufwandes und der damit verbundenen Rechenzeit.In a preferred embodiment of the inventive method are the process steps 1.4. and 1.5. for a predefinable subset the first and / or second segmented image data performed. This leads to a reduction of the computational effort and the associated computation time.
Das vorliegende Verfahren wird nachfolgend anhand eines Ausführungsbeispiels nochmals näher erläutert. Hierbei zeigen:The The present method will now be described with reference to an exemplary embodiment again explained in more detail. in this connection demonstrate:
Das folgende Ausführungsbeispiel erläutert eine der Haupanwendungen des erfindungsgemäßen Verfahrens, nämlich die Untersuchung und Auswertung der zeitlichen Veränderung von Knochenläsionen.The following embodiment explains one the main applications of the method according to the invention, namely Investigation and evaluation of the temporal change of bone lesions.
Hierzu wurden zunächst erste und zweite 3D-Bilddaten mittels eines CT-Systems von der Wirbelsäule eines Patienten in zeitlichem Abstand erzeugt. Die ersten 3D-Bildddaten wurden anlässlich der Erstuntersuchung des Patienten gewonnen. Die zweiten 3D- Bilddaten wurden anlässlich einer Folgeuntersuchung des Patienten gewonnen. Die ersten und zweiten 3D-Bilddaten werden zunächst zur Erzeugung von ersten und zweiten segmentierten 3D-Bilddaten segmentiert, so dass in den ersten und zweiten segmentierten 3D-Bilddaten lediglich die einzelnen Knochen der Wirbelsäule des Patienten abgebildet sind.For this were first first and second 3D image data by means of a CT system of the spine of a Patients generated at intervals. The first 3D image data were on the occasion of Initial examination of the patient won. The second 3D image data were on the occasion obtained a follow-up examination of the patient. The first and second Become 3D image data first for generating first and second segmented 3D image data segmented so that in the first and second segmented 3D image data only the individual bones of the patient's spine are shown are.
Wie
eingangs erwähnt,
wurden nach einiger Zeit, in der die Therapie erste Wirkungen zeitigen konnte,
im Rahmen einer Folgeuntersuchung mittels desselben CT-Systems die
zweiten 3D-Bilddaten (B) vom Patienten bzw. seiner Wirbelsäule erzeugt.
Da der Patient bei der zweiten CT-Aufnahme nicht exakt in derselben
Lage auf dem Scantisch des CT-Systems positioniert werden kann,
wie zur Erstuntersuchung, ergeben sich in den zweiten 3D-Bilddaten
andere Relativpositionen der einzelnen Wirbelknochen B1, ..., B11
sowie andere relative Ausrichtungen der einzelnen Wirbelknochen
B1, ..., B11 zueinander, so dass eine einfache Registrierung der
ersten und zweiten 3D-Bilddaten
nicht realisierbar ist. Diese unterschiedlichen relativen Positionen
der Wirbelknochen bzw. deren unterschiedliche Ausrichtung relativ zueinander
ist in den ersten und zweiten segmentierten 3D-Bilddaten bei einem
Vergleich der rechten und linken Darstellung von
In dem vierten Verfahrensschritt erfolgt nun ein Identifizieren derjenigen Wirbelknochen, die sowohl im Bilddatenvolumen (A') und in den zweiten (B) segmentierten Bilddaten erfasst sind. Dies erfolgt vorliegend visuell durch einen Radiologen bzw. eine Bedienperson, die anhand des auf einem Anzeigemittel dargestellten Bilddatenvolumens (A') und der ebenfalls angezeigten zweiten segmentierten Bilddaten eine Identifikation derjenigen Elemente durchführt, die in beiden Bilddaten (A', B) repräsentiert sind, bspw. durch Anklicken der entsprechenden Wirbelknochen, in den beiden Bilddarstellungen.In the fourth process step is now an identification of those Vertebral bones segmented in both the image data volume (A ') and the second (B) Image data are captured. This is done visually by a Radiologist or an operator, on the basis of on a display means represented image data volume (A ') and also displayed second segmented image data an identification of those elements performs, which in both image data (A ', B) are represented, For example, by clicking on the corresponding vertebral bones, in the two Image representations.
Dabei
sei unterstellt, dass die in
Die Bedienperson kann somit mittels des Anzeigemittels visuell erkennen, dass die Wirbelknochen A1 und B4, A2 und B5, ..., und A7 und B10 einander entsprechen. Die durch diese Identifikation gewonnene Information über die Zuordnung einzelner in den ersten und zweiten segmentierter Bilddaten (A, B) repräsentierten Wirbelknochen wird für den Verfahrensschritt 1.5. bereitgestellt.The operator can thus visually recognize, by means of the display means, that the vertebral bones A1 and B4, A2 and B5,..., And A7 and B10 correspond to each other. The information obtained by this identification about the assignment of individual vertebrae represented in the first and second segmented image data (A, B) is used for the Process step 1.5. provided.
Alternativ zum manuellen bzw. visuellen Identifizieren durch eine Bedienperson in Schritt 1.4., kann das Identifizieren mittels einer entsprechenden Bildverarbeitungssoftware automatisiert erfolgen.alternative for manual or visual identification by an operator in step 1.4., Identification by means of a corresponding image processing software automated.
Nach der der Identifizierung derjenigen starren Elemente, die sowohl in den ersten und in den zweiten segmentierten Bilddaten (A, B) erfasst sind, erfolgt schließlich das individuelle Registrieren der jeweils den einzelnen identifizierten Elementen in den ersten und zweiten segmentierten Bilddaten zugeordneten Bilddatenvolumen. Dieses Registrieren erfolgt in Schritt 1.5. somit für alle in Schritt 1.4. identifizierten starren Elemente einzeln.To the identification of those rigid elements, both in the first and second segmented image data (A, B) are finally realized the individual registration of each identified the individual Associated with elements in the first and second segmented image data Image data volume. This registration is done in step 1.5. Consequently for all in step 1.4. identified rigid elements individually.
Das Registrieren der einzelnen starren Elemente in Schritte 1.5. erfolgt weiterhin vorzugsweise automatisiert mittels bekannter Registrierungsalgorithmen.The Register the individual rigid elements in steps 1.5. he follows furthermore preferably automated by means of known registration algorithms.
Zur Darstellung und Auswertung von Veränderungen der Knochenläsionen erfolgt vorzugsweise nach Schritt 1.5. eine Subtraktion der die starren Elemente repräsentierenden registrierten Bilddatenvolumen.to Presentation and evaluation of changes in bone lesions takes place preferably after step 1.5. a subtraction of the rigid ones Representing elements registered image data volume.
Das vorliegende Verfahren ermöglicht eine zeitsparende und genaue Registrierung von ersten und zweiten Bilddaten, die mittels eines bildgebenden Systems in zeitlichem Abstand von einem starre Elemente aufweisenden Untersuchungsobjekt erfasst wurden, wobei ein oder mehrere der starren Elemente sowohl in den ersten und in den zweiten Bilddaten erfasst sind und sich die relativen Positionen und Ausrichtungen der star ren Elemente zueinander in den ersten und zweiten Bilddaten unterscheiden.The present method allows a time-saving and accurate registration of first and second Image data obtained by means of an imaging system in temporal Distance from a rigid object having examination object were detected, with one or more of the rigid elements both are recorded in the first and second image data and themselves the relative positions and orientations of the rigid elements differentiate each other in the first and second image data.
Claims (15)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102008045275A DE102008045275A1 (en) | 2008-09-01 | 2008-09-01 | Image data e.g. three-dimensional image data, registration method for detecting bone lesions in humans, involves individually registering identified rigid elements in segmented image data volume assigned to segmented image datas |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102008045275A DE102008045275A1 (en) | 2008-09-01 | 2008-09-01 | Image data e.g. three-dimensional image data, registration method for detecting bone lesions in humans, involves individually registering identified rigid elements in segmented image data volume assigned to segmented image datas |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102008045275A1 true DE102008045275A1 (en) | 2009-12-10 |
Family
ID=41268925
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102008045275A Ceased DE102008045275A1 (en) | 2008-09-01 | 2008-09-01 | Image data e.g. three-dimensional image data, registration method for detecting bone lesions in humans, involves individually registering identified rigid elements in segmented image data volume assigned to segmented image datas |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102008045275A1 (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2016067399A1 (en) * | 2014-10-29 | 2016-05-06 | 株式会社島津製作所 | Image processing device |
| JP2018117865A (en) * | 2017-01-25 | 2018-08-02 | 富士通株式会社 | Moving rotation information generation computer program, moving rotation information generation apparatus, and method thereof |
| US20240281986A1 (en) * | 2023-02-22 | 2024-08-22 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20040022425A1 (en) * | 2002-07-31 | 2004-02-05 | Ge Medical Systems Global Technology Company Llc | Temporal image comparison method |
| DE102004057026A1 (en) * | 2003-11-26 | 2005-06-23 | GE Medical Systems Global Technology Company, LLC, Waukesha | Acquisition of temporal image changes and presentation method and apparatus |
| WO2006054191A1 (en) * | 2004-11-17 | 2006-05-26 | Koninklijke Philips Electronics N.V. | Improved elastic image registration functionality |
| DE102006035617A1 (en) * | 2006-07-31 | 2008-02-21 | Siemens Ag | Automatic determination of tumor burden |
| DE102007028906A1 (en) * | 2007-06-22 | 2009-01-02 | Siemens Ag | Image sourcing, archiving and visualizing system for generating, and graphical visualization of medical image data, has image visualization tool which disposes two tissue area-displaying digital images by unit |
-
2008
- 2008-09-01 DE DE102008045275A patent/DE102008045275A1/en not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20040022425A1 (en) * | 2002-07-31 | 2004-02-05 | Ge Medical Systems Global Technology Company Llc | Temporal image comparison method |
| DE102004057026A1 (en) * | 2003-11-26 | 2005-06-23 | GE Medical Systems Global Technology Company, LLC, Waukesha | Acquisition of temporal image changes and presentation method and apparatus |
| WO2006054191A1 (en) * | 2004-11-17 | 2006-05-26 | Koninklijke Philips Electronics N.V. | Improved elastic image registration functionality |
| DE102006035617A1 (en) * | 2006-07-31 | 2008-02-21 | Siemens Ag | Automatic determination of tumor burden |
| DE102007028906A1 (en) * | 2007-06-22 | 2009-01-02 | Siemens Ag | Image sourcing, archiving and visualizing system for generating, and graphical visualization of medical image data, has image visualization tool which disposes two tissue area-displaying digital images by unit |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2016067399A1 (en) * | 2014-10-29 | 2016-05-06 | 株式会社島津製作所 | Image processing device |
| JPWO2016067399A1 (en) * | 2014-10-29 | 2017-04-27 | 株式会社島津製作所 | Image processing device |
| CN107072607A (en) * | 2014-10-29 | 2017-08-18 | 株式会社岛津制作所 | Image processing apparatus |
| CN107072607B (en) * | 2014-10-29 | 2019-12-27 | 株式会社岛津制作所 | image processing device |
| JP2018117865A (en) * | 2017-01-25 | 2018-08-02 | 富士通株式会社 | Moving rotation information generation computer program, moving rotation information generation apparatus, and method thereof |
| US20240281986A1 (en) * | 2023-02-22 | 2024-08-22 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and storage medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102005030646B4 (en) | A method of contour visualization of at least one region of interest in 2D fluoroscopic images | |
| DE10311319B4 (en) | Method, system and computer product for planning a cardiac intervention procedure | |
| DE102009040430B4 (en) | Apparatus, method and computer program for overlaying an intra-operative live image of an operating area or the operating area with a preoperative image of the operating area | |
| DE102005017492B4 (en) | Method for computationally compensating a periodic movement of an organ and image recording system | |
| DE102007010806B4 (en) | A method of providing advanced capabilities in the use of patient image data and radiographic angiography system unsuitable for use in registration procedures | |
| DE102019212929A1 (en) | Register a 2D image with a 3D image | |
| DE102010036538A1 (en) | System and method for compensating for respiratory motion in acquired radiographic images | |
| DE10136160A1 (en) | Method and device for registering two 3D image data sets | |
| DE10210650A1 (en) | Three-dimensional image display system for examination of patient involves ultrasonic scanning head connected to computer with picture blending circuits to construct three-dimensional image | |
| DE102011005119A1 (en) | A method of providing a 3D image data set of a physiological object having metal objects therein | |
| DE102004043889B4 (en) | Method for generating a nuclear medical image | |
| DE102016219887A1 (en) | Method and system for using measured data | |
| DE10338145B4 (en) | Process for displaying 3D image data | |
| DE102006012945B4 (en) | A method of virtual layer positioning in a 3D volume data set and medical imaging system | |
| DE102011080682A1 (en) | Method for controlling digital stereotactic biopsy using mammography device, involves capturing overview image of object area for biopsy, where two stereotactic images are captured, which comprises two images from different directions | |
| DE102013201828A1 (en) | A method for preparing interventional and / or diagnostic imaging with at least two different medical imaging modalities | |
| EP3499461B1 (en) | Representation of markers in medical imaging | |
| DE102004003381A1 (en) | Imaging method, e.g. using MRI or CT, for use in treating pathologies, e.g. brain tumors, whereby the position of at least a layer in an examination area is determined using previously recorded reference images | |
| DE102016226336A1 (en) | Method and device for generating a two-dimensional projection image from a three-dimensional image data set | |
| DE102008045275A1 (en) | Image data e.g. three-dimensional image data, registration method for detecting bone lesions in humans, involves individually registering identified rigid elements in segmented image data volume assigned to segmented image datas | |
| DE102012200686A1 (en) | Method for positioning X-ray device, involves acquiring image data set by imaging device, where image data set has examination area of examination object, and coordinates are obtained inside image data set for determining positioning data | |
| DE102006008509A1 (en) | Conspicuousness detecting method, involves testing image with detection algorithm automatically, where image data sets are registered, in order to obtain transformations | |
| DE102018211381B4 (en) | Validity of a reference system | |
| DE102006012943B4 (en) | Method for automatically evaluating an imaging data set of an object and medical imaging system | |
| DE102007042922A1 (en) | Method for preparing anatomical models in human and veterinary medicine, involves acquisitioning of image of patient data through two-dimension or three-dimension ultrasound, and exporting image data from ultrasound device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| OAV | Applicant agreed to the publication of the unexamined application as to paragraph 31 lit. 2 z1 | ||
| OP8 | Request for examination as to paragraph 44 patent law | ||
| 8120 | Willingness to grant licences paragraph 23 | ||
| 8131 | Rejection |