[go: up one dir, main page]

DE102008045275A1 - Image data e.g. three-dimensional image data, registration method for detecting bone lesions in humans, involves individually registering identified rigid elements in segmented image data volume assigned to segmented image datas - Google Patents

Image data e.g. three-dimensional image data, registration method for detecting bone lesions in humans, involves individually registering identified rigid elements in segmented image data volume assigned to segmented image datas Download PDF

Info

Publication number
DE102008045275A1
DE102008045275A1 DE102008045275A DE102008045275A DE102008045275A1 DE 102008045275 A1 DE102008045275 A1 DE 102008045275A1 DE 102008045275 A DE102008045275 A DE 102008045275A DE 102008045275 A DE102008045275 A DE 102008045275A DE 102008045275 A1 DE102008045275 A1 DE 102008045275A1
Authority
DE
Germany
Prior art keywords
image data
rigid elements
segmented
segmented image
elements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102008045275A
Other languages
German (de)
Inventor
Marcus Dr. Wagner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Siemens Corp
Original Assignee
Siemens AG
Siemens Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG, Siemens Corp filed Critical Siemens AG
Priority to DE102008045275A priority Critical patent/DE102008045275A1/en
Publication of DE102008045275A1 publication Critical patent/DE102008045275A1/en
Ceased legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • A61B6/5241Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT combining overlapping images of the same imaging modality, e.g. by stitching
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4504Bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/42Arrangements for detecting radiation specially adapted for radiation diagnosis
    • A61B6/4208Arrangements for detecting radiation specially adapted for radiation diagnosis characterised by using a particular type of detector
    • A61B6/4225Arrangements for detecting radiation specially adapted for radiation diagnosis characterised by using a particular type of detector using image intensifiers
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Pulmonology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Nuclear Medicine (AREA)

Abstract

The method involves providing image datas detected by an image producing system that is arranged in a temporal distance from an investigation object e.g. human, having rigid elements e.g. bones and teeth. The rigid elements are detected in both the image datas. The image datas are segmented for producing segmented image datas (A, B). The rigid elements that are detected in both the segmented image datas are identified. The identified rigid elements are individually registered in segmented image data volume (A') assigned to the segmented image datas. The image producing system is a computed tomography system, positron emission tomography system, single photon emission tomography system, ultrasonic system and magnetic resonance tomography system.

Description

Die vorliegende Erfindung betrifft ein Verfahren zur Registrierung von Bilddaten. Das Verfahren findet in der Medizintechnik, insbesondere zur Auswertung von Bilddaten, die im Rahmen einer Befundung und/oder Untersuchung eines Patienten mit Knochenläsionen erfasst wurden, Anwendung.The The present invention relates to a method for registering Image data. The method is used in medical technology, in particular for the evaluation of image data, in the context of a report and / or Examination of a patient with bone lesions were recorded, application.

Kochenläsionen sind Schädigungen oder krankhafte Störungen der Knochenstruktur. Die Befundung und Auswertung von Knochenläsionen stützt sich gegenwärtig im Wesentlichen auf Bilddaten, die mittels medizinischer bildgebender Systeme, bspw. Computertomographie- oder Magentresonanztomographie-Systeme, erzeugt werden können. Diese Bilddaten werden von dem Radiologen oder behandelnden Arzt durch Sichtung der dabei letztlich erzeugten Bilder befundet. Neben dem Erkennen bzw. Auffinden von Knochenschädigungen und/oder abgebauter Knochenmasse ist weiterhin die Bewertung des zeitlichen Verlaufs lokaler Knochenläsionen bspw. für die Überprüfung der Wirkungen eingeleiteter Therapiemaßnahmen, von großer Bedeutung. Hierzu liegen dem Radiologen oder behandelnden Arzt typischerweise Zeitreihen von Bilddaten, bzw. Bilder vor, die den Zustand der Knochen des Patienten zu einem Zeitpunkt t0 erfassen und bspw. während der Erstuntersuchung erzeugt wurden, sowie weitere Bilddaten, die zu späteren Zeitpunkten t1, t2, ..., d. h. im Rahmen von Folgeuntersuchungen, erzeugt wurden. Eine Auswertung des zeitlichen Verlaufs von Knochenläsionen erfolgt heute durch einen visuellen Vergleich von aus den Bilddaten erzeugten Bildern, die den Zustand der Knochen zu zwei Zeitpunkten zeigen, durch einen Radiologen oder Arzt. Wünschenswert ist in diesem Zusammenhang eine Überlagerung der zu zwei verschiedenen Zeitpunkten erzeugten Bilddaten bzw. der daraus gewonnener Bilder, so dass Veränderungen an den Knochen bspw. durch Differenzbildung der überlagerten Bilddaten leicht erkannt werden können. Problematisch ist jedoch, dass der Patient bei der Erfassung der Bilddaten zu den Zeitpunkten t0, t1, t2, ... nicht jeweils erneut in der exakt gleichen Position auf dem Scannertisch des bildgebenden System zu liegen kommt, und mithin sich einzelne Knochen in ihrer relativen Position und Ausrichtung zueinander in den erfassten Bilddaten unterscheiden.Cooking lesions are damage or pathological disorders of the bone structure. The diagnosis and evaluation of bone lesions is currently based essentially on image data which can be generated by means of medical imaging systems, for example computed tomography or magnetic resonance imaging systems. These image data are evaluated by the radiologist or attending physician by viewing the ultimately generated images. In addition to recognizing or finding bone damage and / or degraded bone mass, the evaluation of the temporal course of local bone lesions, for example, for the examination of the effects of initiated therapeutic measures, is also of great importance. For this purpose, the radiologist or treating physician typically has time series of image data or images which record the condition of the patient's bones at a time t 0 and were generated, for example, during the initial examination, as well as further image data which are available at later times t 1 . t 2 , ..., ie in subsequent investigations. An evaluation of the temporal course of bone lesions today is carried out by a visual comparison of images generated from the image data showing the state of the bones at two times by a radiologist or a physician. It is desirable in this context to superimpose the image data generated at two different times or the images obtained therefrom, so that changes to the bones, for example, can easily be detected by subtraction of the superimposed image data. The problem, however, is that the patient in the acquisition of the image data at the times t 0 , t 1 , t 2 , ... does not come again to lie in the exact same position on the scanner table of the imaging system, and thus individual bones in their relative position and alignment with each other in the captured image data.

Eine Registrierung des in zwei Bilddaten zeitversetzt erfassten gesamten Skeletts ist mit den bisherigen Registrierungsverfahren nicht möglich, so dass die Auswertung der Bilddaten derzeit im Wesentlichen auf den vorstehend beschriebenen visuellen Vergleich der Bilddaten durch einen Radiologen oder Arzt beschränkt ist. Damit verbunden ist ein hoher zeitlicher Auswerte-Aufwand für den Radiologen oder Arzt sowie die Gefahr des Übersehens von geringfügigen Knochenläsionen.A Registration of the total recorded in two image data delayed Skeletons is not possible with the previous registration procedure, so that the evaluation of the image data currently substantially on the above described visual comparison of image data by a radiologist or Doctor limited is. This is associated with a high temporal evaluation effort for the radiologist or Doctor as well as the danger of overlooking from minor Bone lesions.

Die Aufgabe der vorliegenden Erfindung besteht darin, ein Verfahren anzugeben, mit dem die vorstehend aufgeführten Probleme behoben werden können.The The object of the present invention is a method to address the issues listed above.

Die Aufgabe wir mit dem Verfahren gemäß dem Anspruch 1 gelöst. Vorteilhafte Ausgestaltungen des Verfahrens sind Gegenstand der Unteransprüche oder lassen sich dem Ausführungsbeispiel entnehmen.The Task we solved with the method according to claim 1. advantageous Embodiments of the method are the subject of the dependent claims or let the embodiment remove.

Das vorliegende Verfahren zur Registrierung von Bilddaten umfasst folgende Verfahrensschritte:

  • 1.1. Bereitstellen von ersten und zweiten Bilddaten, die mittels eines bildgebenden Systems in zeitlichem Abstand von einem starre Elemente aufweisenden Untersuchungsobjekt erfasst wurden, wobei ein oder mehrere der starren Elemente sowohl in den ersten und in den zweiten Bilddaten erfasst sind,
  • 1.2. Segmentieren der ersten Bilddaten zur Erzeugung erster segmentierter Bilddaten, die die in den ersten Bilddaten erfassten starren Elemente enthalten,
  • 1.3. Segmentieren der zweiten Bilddaten zur Erzeugung zweiter segmentierter Bilddaten, die die in den zweiten Bilddaten erfassten starren Elemente enthalten,
  • 1.4. Identifizieren derjenigen starren Elemente, die sowohl in den ersten und in den zweiten segmentierten Bilddaten erfasst sind, und
  • 1.5. individuelles Registrieren der jeweils den einzelnen identifizierten Elementen in den ersten und zweiten segmentierten Bilddaten zugeordneten Bilddatenvolumen.
The present method for registering image data comprises the following method steps:
  • 1.1. Providing first and second image data acquired by means of an imaging system at a time interval from a test object having rigid elements, one or more of the rigid elements being detected in both the first and second image data,
  • 1.2. Segmenting the first image data to produce first segmented image data containing the rigid elements detected in the first image data,
  • 1.3. Segmenting the second image data to generate second segmented image data including the rigid elements detected in the second image data,
  • 1.4. Identifying those rigid elements detected in both the first and second segmented image data, and
  • 1.5. individually registering each image data volume associated with the individual identified elements in the first and second segmented image data.

Unter dem Begriff „Registrierung” wird allgemein das räumliche in Deckung bringen von in Bilddaten repräsentierten Elementen oder Objekten verstanden. Dabei können vorliegend bspw. die ersten oder die zweiten segmentierten Bilddaten als Referenzbilddaten gewählt werden. Entsprechende Registrierungsalgorithmen sind im Stand der Technik bekannt.Under The term "registration" becomes common the spatial coincide with elements or objects represented in image data Understood. It can in the present case, for example, the first or the second segmented image data selected as reference image data become. Corresponding registration algorithms are in the state of Technique known.

Vorzugsweise wird das erfindungsgemäße Verfahren auf einem Rechnersystem mittels entsprechendem Programmcode umgesetzt, wobei das Rechnersystem vorzugsweise verschiedene Module aufweist, mit denen die Verfahrensschritte 1.1. bis 1.5. ausführbar sind. Das Rechnersystem kann natürlich auch Bestandteil des bildgebenden Systems sein.Preferably becomes the method according to the invention implemented on a computer system by means of appropriate program code, the computer system preferably having different modules, with which the process steps 1.1. to 1.5. are executable. The computer system can of course also be part of the imaging system.

Im Einzelnen basiert das erfindungsgemäße Verfahren auf dem Bereitstellen von 3D- oder 2D-Bilddaten, die mittels eines bildgebenden Systems, vorzugsweise eines Computertomographen, eines Positronen-Emissionstomographen, eines Einzelphotonen-Emissionstomographen, eines Ultraschall-Systems, oder eines Magnetresonanztomographen, zu zwei verschiedenen Zeiten von einem starre Elemente aufweisenden Untersuchungsobjekt erzeugt wurden. Das bildgebende System zur Erfassung der ersten Bilddaten kann sich dabei von dem bildgebenden System zur Erfassung der zweiten Bilddaten unterscheiden, so dass bspw. die ersten Bilddaten mittels eines Computertomographen und die zweiten Bilddaten mittels eines Magnetresonanztomographen erzeugt werden können. Für Untersuchungen werden typischer weise die ersten und zweiten Bilddaten von ein und demselben bildgebenden System erfasst.Specifically, the method of the invention is based on providing 3D or 2D image data obtained by means of an imaging system, preferably a computer tomograph, a positron emission tomograph, a single photon emission tomograph, an ultra sound system, or a magnetic resonance tomograph, were generated at two different times by a rigid elements having examination object. The imaging system for acquiring the first image data may differ from the imaging system for acquiring the second image data, so that, for example, the first image data can be generated by means of a computer tomograph and the second image data can be generated by means of a magnetic resonance tomograph. For examinations, the first and second image data are typically acquired by one and the same imaging system.

Die ersten und zweiten Bilddaten können auch aus einer Zeitreihe von Bilddaten ausgewählt werden, die mittels des bildgebenden Systems von dem starre Elemente aufweisenden Untersuchungsobjekt erfasst wurden. Dabei werden je nach zu beantwortender Fragestellung aus der Zeitreihe zwei Bilddatensätze als erste und zweite Bilddaten ausgewählt.The first and second image data can also are selected from a time series of image data obtained by means of the Imaging system of the rigid elements having examination object were recorded. Depending on the question to be answered from the time series, two image data sets as first and second image data selected.

Das Untersuchungsobjekt weist, wie angesprochen, einzeln abgrenzbare, starre Elemente oder starre Objekte, bspw. einzelne Knochen, einzelne Zähne, oder Implantate, auf. Die starren Elemente bestehen vorzugsweise aus identischem Material.The Object of investigation has, as mentioned, individually definable, rigid elements or rigid objects, for example, individual bones, individual Teeth, or implants, on. The rigid elements are preferably made of identical material.

Typischerweise werden die zweiten Bilddaten erst dann erzeugt, wenn sich seit der Erfassung der ersten Bilddaten Veränderungen an den einzelnen starren Elementen eingestellt haben können. Am Beispiel der Untersuchung der zeitlichen Entwicklung von Knochenläsionen erfolgt das Erfassen der zweiten Bilddaten bspw. im Rahmen einer Folgeuntersuchung des Patienten im Abstand von Wochen oder Monaten.typically, the second image data are not generated until since the Capture the first image data changes to the individual can have set rigid elements. The example of the investigation The temporal development of bone lesions is detected the second image data, for example, as part of a follow-up examination of Patients at intervals of weeks or months.

Da das Untersuchungsobjekt bei der zeitlich beabstandeten Erfassung der ersten und zweiten Bilddaten nicht in der exakt gleichen Position auf einem Scannertisch des bildgebenden Systems zu liegen kommt, können sich die Positionen und Ausrichtungen der starren Elemente im Untersuchungsobjekt relativ zueinander unterscheiden, was eine direkte Überlagerung der ersten und zweiten Bilddaten zum Vergleich lokaler Änderungen an den starren Elementen nicht sinnvoll macht.There the object to be examined in the temporally spaced detection the first and second image data are not in exactly the same position to lie on a scanner table of the imaging system, can The positions and orientations of the rigid elements in the examination subject relative to each other, which is a direct overlay the first and second image data to compare local changes does not make sense on the rigid elements.

Gemäß dem erfindungsgemäßen Verfahren werden die bereitgestellten ersten und zweiten Bilddaten zunächst jeweils segmentiert, wobei erste und zweite segmentierte Bilddaten erzeugt werden, die ausschließlich die starren Elemente, die vorzugsweise aus identischem Material bestehen, repräsentieren. Entsprechende Segmentierungsverfahren sind im Stand der Technik bekannt. Die ersten und zweiten segmentierten Bilddaten repräsentieren somit die einzeln abgegrenzetn, starren Elemente des Untersuchungsobjektes.According to the inventive method the provided first and second image data first respectively segmented, generating first and second segmented image data Be that exclusively the rigid elements, preferably made of identical material exist, represent. Corresponding segmentation methods are known in the art known. The first and second segmented image data represent thus the individually demarcated, rigid elements of the examination object.

In einem weiteren Verfahrensschritt erfolgt ein Identifizieren derjenigen starren Elemente, die sowohl in den ersten und in den zweiten segmentierten Bilddaten erfasst sind. In besonders bevorzugter Weise erfolgt dieses Identifizieren nur für diejenigen starren Elemente, die vollständig in den ersten und zweiten Bilddaten repräsentiert sind. Im letzteren Fall werden starre Elemente, die nur teilweise in den Bilddaten erfasst sind beim weiteren Verfahrensablauf nicht berücksichtigt.In a further method step is an identification of those rigid elements that are segmented both in the first and in the second Image data are captured. In a particularly preferred manner, this is done Identify only for those rigid elements that are completely in the first and second Represents image data are. In the latter case, rigid elements are only partially are not recorded in the image data in the further procedure considered.

Das Identifizieren der starren Elemente kann visuell durch eine Bedienperson erfolgen, wobei bspw. die segmentierten ersten und zweiten Bilddaten auf einem Anzeigemittel angezeigt werden und die Bedienperson durch Anklicken, bspw. mittels einer Computermouse, ein Element im ersten, und dasselbe Element im zweiten segmentierten Bilddatensatz identifiziert. Alternativ kann das Identifizieren der starren Element in den ersten und zweiten segmentierten Bilddaten durch eine Bildverarbeitungssoftware voll- oder teil-automatisiert erfolgen.The Identifying the rigid elements can be done visually by an operator where, for example, the segmented first and second image data be displayed on a display means and the operator through Click, for example by means of a computer mouse, an element in the first, and identifies the same element in the second segmented image data set. Alternatively, identifying the rigid element in the first and second segmented image data by image processing software fully or partially automated.

Als Ergebnis des Identifizierens in Schritt 1.4. sind somit in den ersten und zweiten segmentierten Bilddaten diejenigen starren Elemente bekannt, die in beiden segmentierten Bilddatensätzen erfasst sind. Weiterhin sind damit auch die einem starren Element jeweils zugeordneten Bilddatenvolumen in den ersten und zweiten segmentierten Bilddaten bekannt. Diese Informationen werden für den Verfahrenschritt 1.5. bereitgestellt.When Result of the identification in step 1.4. are thus in the first and second segmented image data those rigid elements known, which are detected in both segmented image data sets. Farther are thus also the one rigid element associated image data volume in the first and second segmented image data. These Information will be for the process step 1.5. provided.

In dem Verfahrensschritt 1.5. erfolgt schließlich ein individuelles Registrieren der jeweils den einzelnen identifizierten Elementen in den ersten und zweiten segmentierten Bilddaten zugeordneten Bilddatenvolumen. Damit erfolgt keine Registrierung der Gesamtheit der identifizierten starren Ele mente, sondern erfindungsgemäß wird jedes identifizierte starre Element einzeln registriert. Dies kann je nach verwendetem Programmcode zeitlich nacheinander oder gleichzeitig erfolgen.In the process step 1.5. Finally, an individual registration takes place each of the individual identified elements in the first and second segmented image data associated image data volume. This does not register the entirety of the identified ones rigid ele ments, but according to the invention, each identified rigid element individually registered. This can vary depending on the used Program code sequentially or simultaneously.

Als Referenzbilddaten können können beim Registrieren entweder die ersten oder die zweiten segmentierten Bilddaten gewählt werden. Das Registrieren der einzeln starren Elemente in den segmentierten Bilddaten erfolgt vorzugsweise durch Rotation und Translation, so dass für jedes starre Element eine optimale eigene Registrierung in Bezug auf die Referenzbilddaten erfolgt. Nach Abschluss des Verfahrensschrittes 1.5. sind somit sämtliche in Schritt 1.4. identifizierte starre Elemente in dem Referenzdatensatz registriert.When Reference image data can can when registering either the first or the second segmented Image data selected become. Registering the individually rigid elements in the segmented Image data is preferably by rotation and translation, so that for every rigid element has its own optimal registration to the reference image data. After completion of the process step 1.5. are thus all in step 1.4. identified rigid elements in the reference data set registered.

In einer besonders bevorzugten Ausführungsvariante des vorliegenden Verfahrens, wird nach Schritt 1.5. eine Subtraktion der die starren Elemente repräsentierenden registrierten Bilddatenvolumen durchgeführt. Das heißt, es wird eine Differenzbildung zwischen Referenzdatensatz und den damit registrierten Bilddaten durchgeführt. Die dabei verbleibenden Differenz-Bilddaten repräsentieren die Veränderungen der Form der jeweiligen starren Elemente in der Zeit, die zwischen dem Erfassen der ersten und zweiten Bilddaten verging.In a particularly preferred embodiment of the present method is after step 1.5. subtracting the registered image data volumes representing the rigid elements. That is, a difference is made between the reference data set and the image data registered therewith. The remaining difference image data represents the changes in the shape of the respective rigid elements in the time elapsed between the detection of the first and second image data.

In einer bevorzugten Ausführungsvariante des erfindungsgemäßen Verfahrens werden die Verfahrensschritte 1.4. und 1.5. für eine vorgebbare Untermenge der ersten und/oder zweiten segmentierten Bilddaten durchgeführt. Dies führt zu einer Reduktion des Rechenaufwandes und der damit verbundenen Rechenzeit.In a preferred embodiment of the inventive method are the process steps 1.4. and 1.5. for a predefinable subset the first and / or second segmented image data performed. This leads to a reduction of the computational effort and the associated computation time.

Das vorliegende Verfahren wird nachfolgend anhand eines Ausführungsbeispiels nochmals näher erläutert. Hierbei zeigen:The The present method will now be described with reference to an exemplary embodiment again explained in more detail. in this connection demonstrate:

1 erste (A) und zweite (B) segmentierte 3D-Bilddaten in schematisierter Darstellung als Volumenbild, in dem jeweils Knochen (A1, ..., A7 bzw. B1, ..., B11) der Wirbelsäule eines Patienten abgebildet sind, wobei die 3D-Bilddaten mittels eines bildgebenden Systems von dem Patienten in zeitlichem Abstand erzeugt wurden, und einige Knochen zeitlich veränderliche Knochenläsionen aufweisen, und 1 first (A) and second (B) segmented 3D image data in a schematic representation as a volume image, in each of which bones (A1, ..., A7 or B1, ..., B11) of the spine of a patient are shown, wherein the 3D image data were generated by means of an imaging system of the patient at a time interval, and some bone have temporally variable bone lesions, and

2 überlagerte, registrierte segmentierte 3D-Bilddaten in schematisierter Darstellung als Volumenbild, wobei die ersten segmentierten 3D-Bilddaten im Bildvolumen A' als Referenzdaten dienen, in die die einzelnen, identifizierten Knochen aus den zweiten segmentierten 3D-Bilddaten einzeln registriert sind. 2 superimposed, registered segmented 3D image data in a schematic representation as a volume image, wherein the first segmented 3D image data in the image volume A 'serve as reference data in which the individual, identified bones are individually registered from the second segmented 3D image data.

Das folgende Ausführungsbeispiel erläutert eine der Haupanwendungen des erfindungsgemäßen Verfahrens, nämlich die Untersuchung und Auswertung der zeitlichen Veränderung von Knochenläsionen.The following embodiment explains one the main applications of the method according to the invention, namely Investigation and evaluation of the temporal change of bone lesions.

Hierzu wurden zunächst erste und zweite 3D-Bilddaten mittels eines CT-Systems von der Wirbelsäule eines Patienten in zeitlichem Abstand erzeugt. Die ersten 3D-Bildddaten wurden anlässlich der Erstuntersuchung des Patienten gewonnen. Die zweiten 3D- Bilddaten wurden anlässlich einer Folgeuntersuchung des Patienten gewonnen. Die ersten und zweiten 3D-Bilddaten werden zunächst zur Erzeugung von ersten und zweiten segmentierten 3D-Bilddaten segmentiert, so dass in den ersten und zweiten segmentierten 3D-Bilddaten lediglich die einzelnen Knochen der Wirbelsäule des Patienten abgebildet sind.For this were first first and second 3D image data by means of a CT system of the spine of a Patients generated at intervals. The first 3D image data were on the occasion of Initial examination of the patient won. The second 3D image data were on the occasion obtained a follow-up examination of the patient. The first and second Become 3D image data first for generating first and second segmented 3D image data segmented so that in the first and second segmented 3D image data only the individual bones of the patient's spine are shown are.

1 zeigt in der linken Darstellung die ersten segmentierten 3D-Bilddaten (A), in der rechten Darstellung die zweiten segmentierten Bilddaten (B). In den ersten Bilddaten (A) ist im Bilddatenvolumen (A') ein Teil der Wirbelsäule des Patienten mit den einzelnen Wirbelknochen A1, A2, ..., A7 abgebildet. Es sei unterstellt, dass der befundende Arzt oder Radiologe auf Grundlage der Auswertung der ersten 3D-Bilddaten (A) Läsionen an den Wirbelknochen A1, ..., A7 im Bilddatenvolumen (A') festgestellt hat und eine entsprechende Therapie eingeleitet wurde, die der Heilung dieser Läsionen dienen soll. Die für die weitere Untersuchung interessierenden ersten 3D-Bildaten können daher auf das strichliert dargestellte Bilddatenvolumen (A') in den ersten segmentierten 3D-Bilddaten eingeschränkt werden. 1 shows the first segmented 3D image data (A) in the left-hand representation, and the second segmented image data (B) in the right-hand representation. In the first image data (A), part of the spinal column of the patient with the individual vertebral bones A1, A2,..., A7 is imaged in the image data volume (A '). It is assumed that the finding physician or radiologist has determined lesions on the vertebral bones A1,..., A7 in the image data volume (A ') on the basis of the evaluation of the first 3D image data (A) and a corresponding therapy has been initiated by the To cure these lesions. The first 3D image data of interest for the further examination can therefore be limited to the image data volume (A ') in dashed lines in the first segmented 3D image data.

Wie eingangs erwähnt, wurden nach einiger Zeit, in der die Therapie erste Wirkungen zeitigen konnte, im Rahmen einer Folgeuntersuchung mittels desselben CT-Systems die zweiten 3D-Bilddaten (B) vom Patienten bzw. seiner Wirbelsäule erzeugt. Da der Patient bei der zweiten CT-Aufnahme nicht exakt in derselben Lage auf dem Scantisch des CT-Systems positioniert werden kann, wie zur Erstuntersuchung, ergeben sich in den zweiten 3D-Bilddaten andere Relativpositionen der einzelnen Wirbelknochen B1, ..., B11 sowie andere relative Ausrichtungen der einzelnen Wirbelknochen B1, ..., B11 zueinander, so dass eine einfache Registrierung der ersten und zweiten 3D-Bilddaten nicht realisierbar ist. Diese unterschiedlichen relativen Positionen der Wirbelknochen bzw. deren unterschiedliche Ausrichtung relativ zueinander ist in den ersten und zweiten segmentierten 3D-Bilddaten bei einem Vergleich der rechten und linken Darstellung von 1 erkennbar.As mentioned above, after some time in which the therapy was able to produce first effects, the second 3D image data (B) were generated by the patient or his spinal column as part of a follow-up examination using the same CT system. Since the patient can not be positioned exactly in the same position on the scan table of the CT system during the second CT scan, as for the initial examination, other relative positions of the individual vertebral bones B1,..., B11 as well as other relative orientations of the individual vertebral bones B1, ..., B11 to each other, so that a simple registration of the first and second 3D image data is not feasible. These different relative positions of the vertebral bones or their different orientation relative to each other is in the first and second segmented 3D image data in a comparison of the right and left representation of 1 recognizable.

In dem vierten Verfahrensschritt erfolgt nun ein Identifizieren derjenigen Wirbelknochen, die sowohl im Bilddatenvolumen (A') und in den zweiten (B) segmentierten Bilddaten erfasst sind. Dies erfolgt vorliegend visuell durch einen Radiologen bzw. eine Bedienperson, die anhand des auf einem Anzeigemittel dargestellten Bilddatenvolumens (A') und der ebenfalls angezeigten zweiten segmentierten Bilddaten eine Identifikation derjenigen Elemente durchführt, die in beiden Bilddaten (A', B) repräsentiert sind, bspw. durch Anklicken der entsprechenden Wirbelknochen, in den beiden Bilddarstellungen.In the fourth process step is now an identification of those Vertebral bones segmented in both the image data volume (A ') and the second (B) Image data are captured. This is done visually by a Radiologist or an operator, on the basis of on a display means represented image data volume (A ') and also displayed second segmented image data an identification of those elements performs, which in both image data (A ', B) are represented, For example, by clicking on the corresponding vertebral bones, in the two Image representations.

Dabei sei unterstellt, dass die in 1 angedeuteten Wirbelknochen A1, ..., A7 den Wirbelknochen B4, ..., B10 entsprechen.It is assumed that the in 1 indicated vertebral bone A 1 , ..., A 7 correspond to the vertebral bone B4, ..., B10.

Die Bedienperson kann somit mittels des Anzeigemittels visuell erkennen, dass die Wirbelknochen A1 und B4, A2 und B5, ..., und A7 und B10 einander entsprechen. Die durch diese Identifikation gewonnene Information über die Zuordnung einzelner in den ersten und zweiten segmentierter Bilddaten (A, B) repräsentierten Wirbelknochen wird für den Verfahrensschritt 1.5. bereitgestellt.The operator can thus visually recognize, by means of the display means, that the vertebral bones A1 and B4, A2 and B5,..., And A7 and B10 correspond to each other. The information obtained by this identification about the assignment of individual vertebrae represented in the first and second segmented image data (A, B) is used for the Process step 1.5. provided.

Alternativ zum manuellen bzw. visuellen Identifizieren durch eine Bedienperson in Schritt 1.4., kann das Identifizieren mittels einer entsprechenden Bildverarbeitungssoftware automatisiert erfolgen.alternative for manual or visual identification by an operator in step 1.4., Identification by means of a corresponding image processing software automated.

Nach der der Identifizierung derjenigen starren Elemente, die sowohl in den ersten und in den zweiten segmentierten Bilddaten (A, B) erfasst sind, erfolgt schließlich das individuelle Registrieren der jeweils den einzelnen identifizierten Elementen in den ersten und zweiten segmentierten Bilddaten zugeordneten Bilddatenvolumen. Dieses Registrieren erfolgt in Schritt 1.5. somit für alle in Schritt 1.4. identifizierten starren Elemente einzeln.To the identification of those rigid elements, both in the first and second segmented image data (A, B) are finally realized the individual registration of each identified the individual Associated with elements in the first and second segmented image data Image data volume. This registration is done in step 1.5. Consequently for all in step 1.4. identified rigid elements individually.

Das Registrieren der einzelnen starren Elemente in Schritte 1.5. erfolgt weiterhin vorzugsweise automatisiert mittels bekannter Registrierungsalgorithmen.The Register the individual rigid elements in steps 1.5. he follows furthermore preferably automated by means of known registration algorithms.

Zur Darstellung und Auswertung von Veränderungen der Knochenläsionen erfolgt vorzugsweise nach Schritt 1.5. eine Subtraktion der die starren Elemente repräsentierenden registrierten Bilddatenvolumen.to Presentation and evaluation of changes in bone lesions takes place preferably after step 1.5. a subtraction of the rigid ones Representing elements registered image data volume.

Das vorliegende Verfahren ermöglicht eine zeitsparende und genaue Registrierung von ersten und zweiten Bilddaten, die mittels eines bildgebenden Systems in zeitlichem Abstand von einem starre Elemente aufweisenden Untersuchungsobjekt erfasst wurden, wobei ein oder mehrere der starren Elemente sowohl in den ersten und in den zweiten Bilddaten erfasst sind und sich die relativen Positionen und Ausrichtungen der star ren Elemente zueinander in den ersten und zweiten Bilddaten unterscheiden.The present method allows a time-saving and accurate registration of first and second Image data obtained by means of an imaging system in temporal Distance from a rigid object having examination object were detected, with one or more of the rigid elements both are recorded in the first and second image data and themselves the relative positions and orientations of the rigid elements differentiate each other in the first and second image data.

Claims (15)

Verfahren zur Registrierung von Bilddaten, mit folgenden Verfahrensschritten: 1.1. Bereitstellen von ersten und zweiten Bilddaten, die mittels eines bildgebenden Systems in zeitlichem Abstand von einem starre Elemente aufweisenden Untersuchungsobjekt erfasst wurden, wobei ein oder mehrere der starren Elemente sowohl in den ersten und in den zweiten Bilddaten erfasst sind, 1.2. Segmentieren der ersten Bilddaten zur Erzeugung erster segmentierter Bilddaten (A), die die in den ersten Bilddaten erfassten starren Elemente enthalten, 1.3. Segmentieren der zweiten Bilddaten zur Erzeugung zweiter segmentierter Bilddaten (B), die die in den zweiten Bilddaten erfassten starren Elemente enthalten, 1.4. Identifizieren derjenigen starren Elemente, die sowohl in den ersten und in den zweiten segmentierten Bilddaten (A, B) erfasst sind, und 1.5. individuelles Registrieren der jeweils den einzelnen identifizierten Elementen in den ersten und zweiten segmentierten Bilddaten (A, B) zugeordneten Bilddatenvolumen.Method for registering image data, with the following Steps: 1.1. Provide first and second Image data obtained by means of an imaging system at a time interval detected by a rigid elements having examination object were one or more of the rigid elements both in the are captured first and in the second image data, 1.2. segmenting the first image data for generating first segmented image data (A), the rigid elements detected in the first image data contain, 1.3. Segment the second image data for generation second segmented image data (B) corresponding to that in the second image data contain captured rigid elements, 1.4. Identifying those rigid elements that are segmented both in the first and in the second Image data (A, B) are detected, and 1.5. individual registration each of the individual identified elements in the first and second segmented image data (A, B) associated image data volume. Verfahren gemäß Anspruch 1, dadurch gekennzeichnet, dass das Registrieren der jeweils den einzelnen identifizierten Elementen in den ersten und zweiten segmentierten Bilddaten (A, B) zugeordneten Bilddatenvolumen zeitlich nacheinander oder gleichzeitig erfolgt.Method according to claim 1, characterized in that the registering each of the individual identified elements in the first and second segmented Image data volume associated with image data (A, B) in chronological succession or simultaneously. Verfahren gemäß einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass nach Schritt 1.5. eine Subtraktion der die starren Elemente repräsentierenden registrierten Bilddatenvolumen erfolgt.Method according to one the claims 1 or 2, characterized in that after step 1.5. a subtraction the one representing the rigid elements registered image data volume takes place. Verfahren gemäß einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Schritte 1.4. und 1.5. für eine vorgebbare Untermenge der ersten und/oder zweiten segmentierten Bilddaten (A, B) durchgeführt werden.Method according to one the claims 1 to 3, characterized in that the steps 1.4. and 1.5. for one predeterminable subset of the first and / or second segmented Image data (A, B) performed become. Verfahren gemäß einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass das Untersuchungsobjekt ein Lebewesen, insbesondere ein Mensch, ist.Method according to one the claims 1 to 4, characterized in that the examination object a Living being, especially a human, is. Verfahren gemäß einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass das bildgebende System ein Computer Tomograph, ein Positronen-Emissions Tomograph, ein Einzelphotonen-Emissions Tomograph, ein Ultraschall-System, oder ein Magnetresonanztomograph ist.Method according to one the claims 1 to 5, characterized in that the imaging system a Computer Tomograph, a positron emission tomograph, a single-photon emission Tomograph, an ultrasound system, or a magnetic resonance tomograph is. Verfahren gemäß einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass das bildgebende System zur Erfassung der ersten Bilddaten sich von dem bildgebenden System zur Erfassung der zweiten Bilddaten unterscheidet.Method according to one the claims 1 to 6, characterized in that the imaging system for Capture the first image data from the imaging system differs to capture the second image data. Verfahren gemäß einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die starren Elemente aus identischem Material bestehen.Method according to one the claims 1 to 7, characterized in that the rigid elements of identical Material exist. Verfahren gemäß einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die starren Elemente Knochen oder Zähne sind.Method according to one the claims 1 to 8, characterized in that the rigid elements bone or teeth are. Verfahren gemäß einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass das Identifizieren der starren Elemente in Schritt 1.3. durch eine Bedienperson erfolgt.Method according to one the claims 1 to 9, characterized in that identifying the rigid Elements in step 1.3. done by an operator. Verfahren gemäß einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass das Identifizieren der starren Elemente in Schritt 1.4. mittels einer Bilddaten-Auswertesoftware automatisiert erfolgt.Method according to one the claims 1 to 9, characterized in that identifying the rigid Elements in step 1.4. by means of an image data evaluation software automated. Verfahren gemäß einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, dass die ersten und zweiten Bilddaten aus einer Zeitreihe von Bilddaten ausgewählt werden, die mittels eines oder mehrerer bildgebender Systeme von dem starre Elemente aufweisenden Untersuchungsobjekt erfasst wurden.Method according to one the claims 1 to 11, characterized in that the first and second image data are selected from a time series of image data obtained by means of a or multiple imaging systems of the rigid elements Object of investigation were recorded. Verfahren gemäß einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass die ersten und zweiten Bilddaten 3D- oder 2D-Bilddaten sind.Method according to one the claims 1 to 12, characterized in that the first and second image data 3D or 2D image data. Verfahren gemäß einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass die ersten und zweiten segmentierten Bilddaten (A, B) 3D- oder 2D-Bilddaten sind.Method according to one the claims 1 to 12, characterized in that the first and second segmented Image data (A, B) 3D or 2D image data are. Verfahren gemäß einem der Ansprüche 1 bis 14, dadurch gekennzeichnet, dass bei Schritt 1.4. nur diejenigen starren Elemente berücksichtigt werden, die vollständig in den ersten und zweiten segmentierten Bilddaten (A, B) erfasst sind.Method according to one the claims 1 to 14, characterized in that at step 1.4. only those considered rigid elements be that completely in the first and second segmented image data (A, B) are.
DE102008045275A 2008-09-01 2008-09-01 Image data e.g. three-dimensional image data, registration method for detecting bone lesions in humans, involves individually registering identified rigid elements in segmented image data volume assigned to segmented image datas Ceased DE102008045275A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102008045275A DE102008045275A1 (en) 2008-09-01 2008-09-01 Image data e.g. three-dimensional image data, registration method for detecting bone lesions in humans, involves individually registering identified rigid elements in segmented image data volume assigned to segmented image datas

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102008045275A DE102008045275A1 (en) 2008-09-01 2008-09-01 Image data e.g. three-dimensional image data, registration method for detecting bone lesions in humans, involves individually registering identified rigid elements in segmented image data volume assigned to segmented image datas

Publications (1)

Publication Number Publication Date
DE102008045275A1 true DE102008045275A1 (en) 2009-12-10

Family

ID=41268925

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102008045275A Ceased DE102008045275A1 (en) 2008-09-01 2008-09-01 Image data e.g. three-dimensional image data, registration method for detecting bone lesions in humans, involves individually registering identified rigid elements in segmented image data volume assigned to segmented image datas

Country Status (1)

Country Link
DE (1) DE102008045275A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016067399A1 (en) * 2014-10-29 2016-05-06 株式会社島津製作所 Image processing device
JP2018117865A (en) * 2017-01-25 2018-08-02 富士通株式会社 Moving rotation information generation computer program, moving rotation information generation apparatus, and method thereof
US20240281986A1 (en) * 2023-02-22 2024-08-22 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040022425A1 (en) * 2002-07-31 2004-02-05 Ge Medical Systems Global Technology Company Llc Temporal image comparison method
DE102004057026A1 (en) * 2003-11-26 2005-06-23 GE Medical Systems Global Technology Company, LLC, Waukesha Acquisition of temporal image changes and presentation method and apparatus
WO2006054191A1 (en) * 2004-11-17 2006-05-26 Koninklijke Philips Electronics N.V. Improved elastic image registration functionality
DE102006035617A1 (en) * 2006-07-31 2008-02-21 Siemens Ag Automatic determination of tumor burden
DE102007028906A1 (en) * 2007-06-22 2009-01-02 Siemens Ag Image sourcing, archiving and visualizing system for generating, and graphical visualization of medical image data, has image visualization tool which disposes two tissue area-displaying digital images by unit

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040022425A1 (en) * 2002-07-31 2004-02-05 Ge Medical Systems Global Technology Company Llc Temporal image comparison method
DE102004057026A1 (en) * 2003-11-26 2005-06-23 GE Medical Systems Global Technology Company, LLC, Waukesha Acquisition of temporal image changes and presentation method and apparatus
WO2006054191A1 (en) * 2004-11-17 2006-05-26 Koninklijke Philips Electronics N.V. Improved elastic image registration functionality
DE102006035617A1 (en) * 2006-07-31 2008-02-21 Siemens Ag Automatic determination of tumor burden
DE102007028906A1 (en) * 2007-06-22 2009-01-02 Siemens Ag Image sourcing, archiving and visualizing system for generating, and graphical visualization of medical image data, has image visualization tool which disposes two tissue area-displaying digital images by unit

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016067399A1 (en) * 2014-10-29 2016-05-06 株式会社島津製作所 Image processing device
JPWO2016067399A1 (en) * 2014-10-29 2017-04-27 株式会社島津製作所 Image processing device
CN107072607A (en) * 2014-10-29 2017-08-18 株式会社岛津制作所 Image processing apparatus
CN107072607B (en) * 2014-10-29 2019-12-27 株式会社岛津制作所 image processing device
JP2018117865A (en) * 2017-01-25 2018-08-02 富士通株式会社 Moving rotation information generation computer program, moving rotation information generation apparatus, and method thereof
US20240281986A1 (en) * 2023-02-22 2024-08-22 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium

Similar Documents

Publication Publication Date Title
DE102005030646B4 (en) A method of contour visualization of at least one region of interest in 2D fluoroscopic images
DE10311319B4 (en) Method, system and computer product for planning a cardiac intervention procedure
DE102009040430B4 (en) Apparatus, method and computer program for overlaying an intra-operative live image of an operating area or the operating area with a preoperative image of the operating area
DE102005017492B4 (en) Method for computationally compensating a periodic movement of an organ and image recording system
DE102007010806B4 (en) A method of providing advanced capabilities in the use of patient image data and radiographic angiography system unsuitable for use in registration procedures
DE102019212929A1 (en) Register a 2D image with a 3D image
DE102010036538A1 (en) System and method for compensating for respiratory motion in acquired radiographic images
DE10136160A1 (en) Method and device for registering two 3D image data sets
DE10210650A1 (en) Three-dimensional image display system for examination of patient involves ultrasonic scanning head connected to computer with picture blending circuits to construct three-dimensional image
DE102011005119A1 (en) A method of providing a 3D image data set of a physiological object having metal objects therein
DE102004043889B4 (en) Method for generating a nuclear medical image
DE102016219887A1 (en) Method and system for using measured data
DE10338145B4 (en) Process for displaying 3D image data
DE102006012945B4 (en) A method of virtual layer positioning in a 3D volume data set and medical imaging system
DE102011080682A1 (en) Method for controlling digital stereotactic biopsy using mammography device, involves capturing overview image of object area for biopsy, where two stereotactic images are captured, which comprises two images from different directions
DE102013201828A1 (en) A method for preparing interventional and / or diagnostic imaging with at least two different medical imaging modalities
EP3499461B1 (en) Representation of markers in medical imaging
DE102004003381A1 (en) Imaging method, e.g. using MRI or CT, for use in treating pathologies, e.g. brain tumors, whereby the position of at least a layer in an examination area is determined using previously recorded reference images
DE102016226336A1 (en) Method and device for generating a two-dimensional projection image from a three-dimensional image data set
DE102008045275A1 (en) Image data e.g. three-dimensional image data, registration method for detecting bone lesions in humans, involves individually registering identified rigid elements in segmented image data volume assigned to segmented image datas
DE102012200686A1 (en) Method for positioning X-ray device, involves acquiring image data set by imaging device, where image data set has examination area of examination object, and coordinates are obtained inside image data set for determining positioning data
DE102006008509A1 (en) Conspicuousness detecting method, involves testing image with detection algorithm automatically, where image data sets are registered, in order to obtain transformations
DE102018211381B4 (en) Validity of a reference system
DE102006012943B4 (en) Method for automatically evaluating an imaging data set of an object and medical imaging system
DE102007042922A1 (en) Method for preparing anatomical models in human and veterinary medicine, involves acquisitioning of image of patient data through two-dimension or three-dimension ultrasound, and exporting image data from ultrasound device

Legal Events

Date Code Title Description
OAV Applicant agreed to the publication of the unexamined application as to paragraph 31 lit. 2 z1
OP8 Request for examination as to paragraph 44 patent law
8120 Willingness to grant licences paragraph 23
8131 Rejection