[go: up one dir, main page]

DE102009004898A1 - Verfahren zur Darstellung zweier unterschiedlicher Bilder eines Fusionsbildes und Vorrichtung hierfür - Google Patents

Verfahren zur Darstellung zweier unterschiedlicher Bilder eines Fusionsbildes und Vorrichtung hierfür Download PDF

Info

Publication number
DE102009004898A1
DE102009004898A1 DE102009004898A DE102009004898A DE102009004898A1 DE 102009004898 A1 DE102009004898 A1 DE 102009004898A1 DE 102009004898 A DE102009004898 A DE 102009004898A DE 102009004898 A DE102009004898 A DE 102009004898A DE 102009004898 A1 DE102009004898 A1 DE 102009004898A1
Authority
DE
Germany
Prior art keywords
image
display
movement
finger
representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102009004898A
Other languages
English (en)
Inventor
Holger Dresel
Thomas Gossler
Andreas Grimme
Marion Hellinger
Sebastian Dr. Schmidt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare GmbH
Original Assignee
Siemens AG
Siemens Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG, Siemens Corp filed Critical Siemens AG
Priority to DE102009004898A priority Critical patent/DE102009004898A1/de
Priority to US12/687,967 priority patent/US8525852B2/en
Publication of DE102009004898A1 publication Critical patent/DE102009004898A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient; User input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient; User input means
    • A61B5/742Details of notification to user or communication with user or patient; User input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient; User input means
    • A61B5/742Details of notification to user or communication with user or patient; User input means using visual displays
    • A61B5/7435Displaying user selection data, e.g. icons in a graphical user interface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/462Displaying means of special interest characterised by constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/465Displaying means of special interest adapted to display user selection data, e.g. graphical user interface, icons or menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

Verfahren zur Darstellung zweier unterschiedlicher Bilder, ermittelt aus einem ersten und einem zweiten Bilddatensatz, wenigstens einer Bildgebungsmodalität, insbesondere einer medizinischen Bildgebungsmodalität, wobei die Bilder einer Anzeigeeinrichtung mit einer Darstellungsfläche gemeinsam als Fusionsbild oder als Einzelbilder dargestellt werden können, wobei ein der Anzeigeeinrichtung zugeordnetes Erfassungsmittel eine Bewegung wenigstens eines Fingers eines Anwenders an der oder in unmittelbarer Nähe der Darstellungsfläche oder eine Berührung der Darstellungsfläche erfasst und in Abhängigkeit der Erfassung eine Änderung der Darstellung des Fusionsbilds vorgenommen oder zwischen einer Einzel- und Fusionsbilddarstellung oder zwischen zwei Einzelbilddarstellungen gewechselt wird.

Description

  • Die Erfindung betrifft ein Verfahren zur Darstellung zweier unterschiedlicher Bilder, ermittelt aus einem ersten und einem zweiten Bilddatensatz, wenigstens einer Bildgebungsmodalität, insbesondere einer medizinischen Bildgebungsmodalität, wobei die Bilder an einer Anzeigeeinrichtung mit einer Darstellungsfläche gemeinsam als Fusionsbild oder als Einzelbilder dargestellt werden können.
  • Fusionsbilder werden durch Kombination zweier Bilddatensätze erreicht. Die Bilddatensätze stammen dabei entweder von unterschiedlichen und räumlich getrennten Bildgebungsmodalitäten wie Magnetresonanztomographie oder Positronenemissionstomographie, sie können aber auch von einer kombinierten Vorrichtung stammen. Es ist aber auch bekannt, bei Magnetresonanzaufnahmen Bilder, die mit unterschiedlichen Resonanzfrequenzen aufgenommen wurden, als Fusionsbilder übereinanderzulegen. Als Beispiel seien hier Bilder aus Messungen bei der Protonenresonanzfrequenz und der Phosphor- oder auch Natriumresonanzfrequenz genannt. Die Bilddatensätze können gleichzeitig oder auch zeitversetzt aufgenommen worden sein. Nach einer Registrierung der Bilddatensätze ist eine kombinierte Darstellung als Fusionsbild möglich.
  • Die Kombination der verschiedenen Datensätze wird deshalb vorgenommen, weil jede Bildgebungsmodalität ihre eigenen Vor- und Nachteile aufweist oder die Messung bei unterschiedlichen Resonanzfrequenzen im Falle der Magnetresonanztomographie unterschiedliche Informationen liefert. Während Röntgen- und Computertomographiebilder eine gute Darstellung von Knochen erlauben, eignet sich die Magnetresonanztomographie hervorragend zur Darstellung von Weichteilgewebe. Mittels Positronenemissionstomographie lassen sich dagegen besonders gut Stoffwechselvorgänge darstellen.
  • Bei der Darstellung von Fusionsbildern tritt dabei das Problem auf, dass es bei einer Überlagerung der Bilddaten zu einem Informationsverlust kommt, da sich die Bilddaten selbstverständlich nicht gleichzeitig an der gleichen Stelle darstellen lassen. Daher ist es bekannt, dass ein Benutzer durch Tastendruck oder das Anklicken einer Schaltfläche mit der Maus die Darstellungsart des Bildes verändern kann. Durch diese Interaktion kann entweder ein Bilddatensatz ausgeblendet werden oder der Kontrast eines oder beider Bilddatensätze kann variiert werden. Die Interaktion lenkt jedoch den Benutzer vom Fusionsbild ab und ein Teil der Information, der durch die Änderung der Darstellungsart gewonnen werden sollte, geht verloren.
  • Der Erfindung liegt damit die Aufgabe zugrunde, ein Verfahren der eingangs genannten Art anzugeben, bei dem eine informationsverlustfreie Interaktion des Benutzers zum Ändern der Darstellung eines Fusionsbildes oder seiner Einzelbilder möglich ist.
  • Zur Lösung dieser Aufgabe ist bei einem derartigen Verfahren vorgesehen, dass ein der Anzeigeeinrichtung zugeordnetes Erfassungsmittel eine Bewegung wenigstens eines Fingers eines Anwenders an der oder in unmittelbarer Nähe der Darstellungsfläche oder eine Berührung der Darstellungsfläche erfasst und in Abhängigkeit der Erfassung eine Änderung der Darstellung des Fusionsbilds vorgenommen oder zwischen einer Einzel- und Fusionsbilddarstellung oder zwischen zwei Einzelbilddarstellungen gewechselt wird.
  • Der Benutzer beziehungsweise Anwender interagiert also nicht mehr über externe Eingabemittel mit der das Fusionsbild darstellenden Anzeigeeinrichtung, sondern die Änderungen werden direkt über die Anzeigeeinrichtung bzw. ihre Darstellungsfläche vorgenommen. Dadurch kann der Anwender auch bei einer Änderung der Darstellung des Fusionsbildes oder seiner Einzelbilder den Blick auf der Darstellungsfläche der Anzeigeein richtung ruhen lassen. Damit wird der Anwender nicht mehr vom Fusionsbild abgelenkt und er kann seine volle Konzentration auch bei Änderung der Darstellung des Fusionsbildes auf das Fusionsbild lenken. Alternativ zur Änderung der Darstellung des Fusionsbilds kann der Anwender auf diese Art und Weise auch zwischen einer Darstellung der Einzelbilder des Fusionsbilds als Einzelbild und als Fusionsbild wechseln. Durch eine erfasste Bewegung wird also ein Einzelbild des Fusionsbilds also angezeigt oder auch nicht. Als weitere Alternative ist vorgesehen, mittels einer erfassten Bewegung zwischen den Einzelbildern und des Fusionsbilds zu wechseln. In diesem Fall ist eine Darstellung des Fusionsbilds zumindest zeitweise nicht vorgesehen. Auch bei diesen alternativen Ausgestaltungen muss der Anwender den Blick nicht von der Darstellungsfläche abwenden, wodurch er sich besser auf das oder die dargestellten Bilder konzentrieren kann. Weiterhin kann der Anwender durch Überlagerung zweier Einzelbilder das Fusionsbild auch erzeugen.
  • Mit besonderem Vorteil kann ein Wechsel vom ersten Bild zum zweiten Bild aufgrund einer im Wesentlichen parallel zur Darstellungsfläche erfolgenden Bewegung wenigstens eines Fingers vorgenommen werden. Der Anwender wischt sozusagen das erste Bild zur Seite, während das zweite Bild an der Anzeigeeinrichtung neu dargestellt wird. Bei der Bewegung können der oder die Finger die Darstellungsfläche berühren, die Bewegung kann allerdings auch in der Nähe der Darstellungsfläche ausgeführt werden. Die Bewegung findet dabei ebenfalls im Blickfeld der Augen statt, weshalb der Anwender nicht abgelenkt wird.
  • Alternativ kann die Anzeige des ersten Bildes aufgrund einer im Wesentlichen parallel zur Darstellungsfläche erfolgenden Bewegung wenigstens eines Fingers vorgenommen oder entfernt werden, wobei die Anzeige des zweiten Bildes durch die Bewegung nicht verändert wird. Denkbar ist hierbei, das Bild mit morphologischen Informationen statisch anzuzeigen, während das Bild mit dynamischen Informationen zu- und abgeschaltet wird. Beispielsweise kann ein Magnetresonanzbild als zweites Bild statisch angezeigt werden. In diesem sind morphologische oder auch anatomische Informationen enthalten. Diese sind je nach vorliegendem Datensatz zwei- und auch dreidimensional darstellbar. Im Falle einer zweidimensionalen Darstellung wird dem Magnetresonanzbilddatensatz beispielsweise ein Bild, das mittels Positronenemissionstomographie gewonnen wurde, überlagert. Dieses, kürzer auch als PET-Bild bezeichnet, gibt Informationen über Stoffwechselvorgänge. Durch die Überlagerung über das Magnetresonanzbild werden dessen Informationen an den Überlagerungsstellen bedeckt. Um die Details des Magnetresonanzbildes wieder sichtbar zu machen, muss der Anwender nur noch mit einer Handbewegung das PET-Bild sozusagen zur Seite wischen. Alternativ kann in Abhängigkeit der Länge der Bewegung auch die Deckkraft des PET-Bildes variiert werden. Das heißt, dass die Transparenz des PET-Bildes linear oder stufenförmig variierbar ist. Das PET-Bild erscheint also durchscheinend, so dass das Magnetresonanzbild unter dem PET-Bild sichtbar wird. Die Deckkraft kann dabei von einer vollständigen Intransparenz bis zur vollständigen Transparenz variiert werden. In diesem Fall ist es notwendig, sowohl die Richtung als auch die Länge der Bewegung zu erfassen. Aufgrund der Richtungsabhängigkeit der Bewegung kann durch eine Bewegung in die Gegenrichtung die ursprüngliche Deckkraft wieder hergestellt werden.
  • Vorzugsweise kann die erfolgte Änderung nach einer bestimmten Zeitspanne automatisch wieder rückgängig gemacht werden. Grundsätzlich möchte der Anwender die von ihm gewählte Darstellung betrachten. Nur ausnahmsweise soll die Art der Betrachtung geändert werden, beispielsweise um Details im zweiten Bild sichtbar zu machen oder um kurzfristig Stoffwechselvorgänge in Form des ersten Bildes einzublenden. Um den Anwender weiter zu entlasten ist daher ein automatisches Zurückstellen auf die Ausgangsdarstellung sinnvoll. Dadurch kann die Ablenkung des Anwenders vom eigentlichen Fusionsbild weiter herabgesetzt werden.
  • Das erste Bild kann wenigstens einen ausgezeichneten Bereich aufweisen, der über den Finger positionserfasst angewählt werden kann, wobei die Darstellung des ersten Bildes in Abhängigkeit einer erfassten Bewegung verändert wird. Dies ist sozusagen eine Art Bildbearbeitung an der Anzeigeeinrichtung. Dies ist möglich, wenn die Bilddatensätze nicht-rigide miteinander registriert wurden. Dadurch ist es beispielsweise möglich, offensichtliche Darstellungsfehler direkt am Bildschirm beziehungsweise an der Darstellungsfläche auszubessern. Das erste Bild weist hierzu Bereiche auf, die durch Positionierung des Fingers auf oder über diesen mit anschließender Bewegung mitbewegt werden können. Hierdurch wird die Form des Bildes verändert, um eventuelle Registrierungsfehler auszugleichen. Insbesondere kann ein Bereich in der Mitte des ersten Bildes vorgesehen sein, der ein Bewegen des gesamten ersten Bildes ermöglicht und nicht nur die Bewegung eines Teilbereichs des Bildes.
  • Mit besonderem Vorteil kann am Rand der Darstellungsfläche wenigstens ein Bereich vorgesehen werden, von dem ausgehend eine Bewegung wenigstens eines Fingers beginnt, wobei die Darstellung des Fusionsbildes in einer durch die Position des Fingers definierten Fläche in Abhängigkeit des ausgewählten Bereichs verändert wird. Außerhalb des Fusionsbildes werden also ein oder mehrere Buttons positioniert, durch deren Anwahl mit zusätzlicher Fingerbewegung im ersten und/oder zweiten Bild bereichsweise die Darstellung verändert werden kann. Zum Beispiel kann ein Button vorgesehen sein, bei dessen Auswahl das erste Bild über einen bestimmten Schwellwert bezogen auf die Signalintensität in einen Schwarzweiß-Bilddatensatz umgewandelt wird. Selbstverständlich sind auch andere Farbkombinationen als schwarz und weiß möglich. Beispielsweise kann ein PET-Bild, das ein Maß für den Stoffwechsel vorgibt, somit in einen bezüglich des Stoffwechsels aktiveren und passiveren Bereich aufgeteilt werden. Die Änderung der Darstellung erfolgt allerdings nur in dem Bereich, der durch die Bewegung des Fingers in horizontaler oder vertikaler Richtung erfasst wurde. Alternativ ist es auch möglich, das gesamte erste Bild durch Berührung des Buttons, also des die Darstellung des Fusionsbildes ändernden Bereichs am Rand der Darstellungsfläche, zu verändern. Durch nochmaliges Berühren desselben Buttons kann die Veränderung rückgängig gemacht werden.
  • Daneben betrifft die Erfindung auch eine Vorrichtung zur Bilddarstellung, aufweisend eine Anzeigeeinrichtung mit einer Darstellungsfläche, eine Erfassungseinrichtung und eine Steuerungseinrichtung, die zur Durchführung des beschriebenen Verfahrens ausgebildet ist. Vorzugsweise kann die Erfassungseinrichtung wenigstens einen Infrarotsensor umfassen.
  • Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus den im Folgenden beschriebenen Ausführungsbeispielen sowie anhand der Zeichnungen. Dabei zeigen:
  • 1 eine erfindungsgemäße Vorrichtung zur Bilddarstellung,
  • 2 und 3 die Veränderung der Darstellung in einer ersten Ausgestaltung,
  • 4 und 5 die Veränderung der Darstellung in einer zweiten Ausgestaltung,
  • 6 und 7 die Veränderung der Darstellung in einer dritten Ausgestaltung,
  • 8 und 9 die Veränderung der Darstellung in einer vierten Ausgestaltung, und
  • 10 und 11 die Veränderung der Darstellung in einer fünften Ausgestaltung.
  • 1 zeigt eine Vorrichtung zur Bilddarstellung 1, die eine Anzeigeeinrichtung 2, eine Steuerungseinrichtung 6 und eine Tastatur 7 umfasst. Die Anzeigeeinrichtung weist neben einer Darstellungsfläche 3 auch eine Erfassungseinrichtung 4 bestehend aus mehreren Infrarotsensoren 5 auf. Die Infrarotsensoren sind dazu ausgebildet, die Bewegungen eines Fingers oder mehrerer Finger zu erfassen. Die Erfassungseinrichtung 4 kann dabei zwischen den Bewegungsrichtungen, einem Drücken eines Bereichs der Darstellungsfläche und der Länge der Bewegung eines erfassten oder mehrerer erfasster Finger differenzieren.
  • 2 zeigt ein Magnetresonanz (MR)-Bild 8, das auf der Darstellungsfläche 3 dargestellt wird. Zum Wechsel auf das zweite Bild des Fusionsbildes muss der Anwender mit der Hand 9 lediglich eine Bewegung parallel zur Darstellungsfläche ausführen, beispielsweise in Richtung des Pfeils 10. Der Umfang der Bewegung sollte einen gewissen Schwellwert überschreiten, ansonsten ist die Länge nicht wesentlich. Nach Durchführung der Bewegung ist, wie in 3 dargestellt ist, das PET-Bild 11 dargestellt. Dies ist das zweite Bild des Fusionsbildes. Es befindet sich an der Stelle der Darstellungsfläche 3, an der es aufgrund der Registrierung mit dem MR-Bild 8 dargestellt werden muss. Die Richtung des Pfeils 10 und damit die zu erfassende Bewegung kann alternativ auch vertikal oder in Gegenrichtung erfolgen.
  • Alternativ zum Wechsel zwischen den Bildern des Fusionsbildes ist es auch möglich, beide Bilder überlagert darzustellen, siehe 4. Durch Bewegung der Hand 9 in Richtung des Pfeils 12 wird das PET-Bild 11 sozusagen aus der Darstellungsfläche 3 gewischt. Dementsprechend ist in 5 nur noch das MR-Bild 8 zu sehen. Da die überlagerte Darstellung gemäß 4 aber die eigentlich gewünschte Darstellungsform ist und das PET-Bild 11 nur kurzfristig entfernt werden soll, um Details des MR-Bildes 8 betrachten zu können, wird das PET-Bild 11 nach einer frei wählbaren Zeitspanne automatisch wieder angezeigt. Dadurch muss der Anwender die sowieso vorzunehmende Anzeige des PET-Bildes 11 nicht selbst bewirken.
  • Alternativ zu den beschriebenen Möglichkeiten des Darstellungswechsels ist es auch möglich, die Richtungsinformation der Bewegung der Hand 9 bzw. ihres Fingers zu nutzen. Ausgehend von der Darstellung eines Fusionsbilds wie in 4 wird eine Bewegung, die im Wesentlichen der Richtung des Pfeils 12 folgt, erfasst und dementsprechend das PET-Bild 11 nicht mehr dargestellt. Eine erfasste Bewegung in Richtung des Pfeils 10 bewirkt dann einen Wechsel der Darstellung zwischen dem MR-Bild 8 und dem PET-Bild 11, wie in den 2 und 3 zu sehen. Wird eine (zweite) Bewegung entgegen der oder in Richtung des Pfeils 12 durch die Infrarotsensoren 5 erfasst, wird wieder das Fusionsbild wie in 4 zu sehen dargestellt.
  • Das Fusionsbild, bestehend aus einem MR-Bild 8 und einem PET-Bild 11, kann neben den oben bereits beschriebenen Möglichkeiten bezüglich eines Wechsels der Anzeige auch in der Darstellung der Einzelbilder selbst verändert werden. Hierzu sind Buttons 13, 14, 15, 16, 17 und 18 am Rand der Darstellungsfläche 3 angeordnet. Die Buttons 1318 stellen dabei Bereiche der Darstellungsfläche 3 dar, durch deren Berührung oder Überstreichen bzw. Annäherung eines Fingers eines Anwenders in die Nähe eines derartigen Buttons eine Bewegung der Hand 9 des Anwenders mit einer zusätzlichen Funktionalität versehen werden soll. Die Buttons 1315 beziehen sich dabei auf das MR-Bild 8 und die Buttons 1618 auf das PET-Bild 11.
  • Die Buttons 13 und 16 bewirken eine Darstellung des entsprechenden Bildes in lediglich zwei Farben, beispielsweise schwarz und weiß. Diese Unterscheidung wird anhand eines Schwellwerts der Signalintensität getroffen. Bezogen auf das PET-Bild 11 erfolgt die Darstellung dann aufgeteilt in einen Bereich höherer und niedriger Stoffwechselaktivität und hinsichtlich des MR-Bildes 8 ist das Bild in einen Bereich höherer und niedriger Signalintensität und damit im Wesentlichen höherer und niedrigerer Spindichte aufgeteilt.
  • Die Buttons 14 und 17 bewirken eine Darstellung des jeweiligen Bildes analog zu den Buttons 13 und 16, wobei die Werte unterhalb des Schwellwerts jedoch transparent und somit unsichtbar dargestellt werden.
  • Die Buttons 15 und 18 schließlich bewirken eine vollständige Transparenz des auf sie bezogenen und durch eine Bewegung der Hand 9 eingegrenzten Bereichs des jeweiligen Bildes. 7 zeigt, wie die Auswahl des Buttons 18 mit anschließender Bewegung des Fingers der Hand 9 in Richtung des Pfeils 22 die Darstellung des PET-Bildes 11 verändert. Durch die Bewegung der Hand 9 und des dabei erfassten Fingers wird die Darstellungsfläche 3 in einen von der Bewegung des Fingers erfassten Bereich 19 und einen davon nicht erfassten Bereich aufgeteilt. Innerhalb des von der Bewegung des Fingers erfassten Bereichs 19 wird die Darstellung des PET-Bildes verändert. Der Bereich 20 wird gemäß der mit dem Button 18 verknüpften Funktionalität transparent dargestellt, während der Bereich 21 in der ursprünglichen Darstellung verbleibt. Durch Weiterbewegung der Hand 9 könnte das gesamte PET-Bild transparent dargestellt werden. Durch eine Aufwärtsbewegung der Hand 9 ausgehend vom Button 18 könnte der PET-Bilddatensatz 11 auch in vertikaler Richtung in einen transparenten Bereich 20 und einen nicht transparenten Bereich 21 aufgeteilt werden. Die Aufteilung des PET-Bilddatensatzes kann durch Rückbewegung der Hand Richtung des Button 18 oder auch durch Verlassen der Darstellungsfläche 3 wieder hergestellt werden.
  • 8 zeigt ein Fusionsbild, wo bei der Registrierung seiner Einzelbilder ein Fehler aufgetreten ist. Um diesen korrigieren zu können, weist das PET-Bild 11 Bereiche 23 auf, die über einen Finger positionserfasst angewählt werden können, wobei die Darstellung des PET-Bildes in Abhängigkeit einer erfassten Bewegung verändert wird. Wird durch einen Finger beispielsweise der in der Mitte des PET-Bildes 11 befindliche ausgezeichnete Bereich 23 angewählt und hierauf die Hand 9 bewegt, so folgt das gesamte PET-Bild der Bewegung in Richtung des Pfeils 25, um dann als registrierungskorrigiertes PET-Bild 24 dargestellt zu werden. Die Anwahl des in der Mitte des PET-Bildes 11 befindlichen Bereichs 23 bewirkt also eine Verschiebung des PET-Bildes 11, siehe 9.
  • 10 zeigt eine andere Situation, das PET-Bild 11 befindet sich an und für sich an der richtigen Stelle, allerdings ist durch die Registrierung eine Deformierung des PET-Bildes 11 vorgekommen. Deshalb befinden sich am Rand des PET-Bildes 11 ebenfalls ausgezeichnete Bereiche 23, wobei durch deren Auswahl die Form des PET-Bildes 11 verändert werden kann. In 11 ist etwas Derartiges dargestellt. Ein Finger der Hand 9 wählt einen Bereich 23 am Rand des PET-Bildes 11 aus und der Anwender bewegt den Finger in Richtung des Pfeils 26. Aufgrund der Bewegung des Fingers wird der ausgezeichnete Bereich 23 mitbewegt und dementsprechend die Form des PET-Bildes angepasst.
  • Aufgrund der Interaktion des Anwenders mit der Darstellungsfläche 3 ist somit ein Ändern der Darstellung des Fusionsbildes möglich, ohne den Anwender vom Fusionsbild abzulenken.

Claims (8)

  1. Verfahren zur Darstellung zweier unterschiedlicher Bilder, ermittelt aus einem ersten und einem zweiten Bilddatensatz, wenigstens einer Bildgebungsmodalität, insbesondere einer medizinischen Bildgebungsmodalität, wobei die Bilder einer Anzeigeeinrichtung mit einer Darstellungsfläche gemeinsam als Fusionsbild oder als Einzelbilder dargestellt werden können, dadurch gekennzeichnet, dass ein der Anzeigeeinrichtung zugeordnetes Erfassungsmittel eine Bewegung wenigstens eines Fingers eines Anwenders an der oder in unmittelbarer Nähe der Darstellungsfläche oder eine Berührung der Darstellungsfläche erfasst und in Abhängigkeit der Erfassung eine Änderung der Darstellung des Fusionsbilds vorgenommen oder zwischen einer Einzel- und Fusionsbilddarstellung oder zwischen zwei Einzelbilddarstellungen gewechselt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass ein Wechsel vom ersten Bild zum zweiten Bild aufgrund einer im Wesentlichen parallel zur Darstellungsfläche erfolgenden Bewegung wenigstens eines Fingers vorgenommen wird.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Anzeige des ersten Bildes aufgrund einer im Wesentlichen parallel zur Darstellungsfläche erfolgenden Bewegung wenigstens eines Fingers vorgenommen oder entfernt wird, wobei die Anzeige des zweiten Bildes durch die Bewegung nicht verändert wird.
  4. Verfahren nach einem der Ansprüche 2 oder 3, dadurch gekennzeichnet, dass die erfolgte Änderung nach einer bestimmten Zeitspanne automatisch wieder rückgängig gemacht wird.
  5. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das erste Bild wenigstens einen ausgezeichneten Bereich aufweist, der über den Finger positionserfasst angewählt werden kann, wobei die Darstellung des ersten Bildes in Abhängigkeit einer erfassten Bewegung verändert wird.
  6. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass am Rand der Darstellungsfläche wenigstens ein Bereich vorgesehen wird, von dem ausgehend eine Bewegung wenigstens eines Fingers beginnt, wobei die Darstellung des Fusionsbildes in einer durch die Position des Fingers definierten Fläche in Abhängigkeit des ausgewählten Bereichs verändert wird.
  7. Vorrichtung zur Bilddarstellung (1), aufweisend eine Anzeigeeinrichtung (2) mit einer Darstellungsfläche (3), eine Erfassungseinrichtung (4) und eine Steuerungseinrichtung (6), ausgebildet zur Durchführung des Verfahrens nach einem der vorangehenden Ansprüche.
  8. Vorrichtung nach Anspruch 7, dadurch gekennzeichnet, dass die Erfassungseinrichtung (4) wenigstens einen Infrarotsensor (5) umfasst.
DE102009004898A 2009-01-16 2009-01-16 Verfahren zur Darstellung zweier unterschiedlicher Bilder eines Fusionsbildes und Vorrichtung hierfür Withdrawn DE102009004898A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102009004898A DE102009004898A1 (de) 2009-01-16 2009-01-16 Verfahren zur Darstellung zweier unterschiedlicher Bilder eines Fusionsbildes und Vorrichtung hierfür
US12/687,967 US8525852B2 (en) 2009-01-16 2010-01-15 Method and device selective presentation of two images individually or combined as a fusion image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102009004898A DE102009004898A1 (de) 2009-01-16 2009-01-16 Verfahren zur Darstellung zweier unterschiedlicher Bilder eines Fusionsbildes und Vorrichtung hierfür

Publications (1)

Publication Number Publication Date
DE102009004898A1 true DE102009004898A1 (de) 2010-08-19

Family

ID=42338479

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009004898A Withdrawn DE102009004898A1 (de) 2009-01-16 2009-01-16 Verfahren zur Darstellung zweier unterschiedlicher Bilder eines Fusionsbildes und Vorrichtung hierfür

Country Status (2)

Country Link
US (1) US8525852B2 (de)
DE (1) DE102009004898A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2549431A1 (de) * 2011-07-21 2013-01-23 Sick Ag Bildfusion zur Überwachung eines Gefahrenbereichs

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120038668A1 (en) * 2010-08-16 2012-02-16 Lg Electronics Inc. Method for display information and mobile terminal using the same
EP2782505B1 (de) * 2011-11-27 2020-04-22 Hologic, Inc. System und verfahren zur erzeugung eines 2d-bildes mit mammografie- und/oder tomosynthesebilddaten
ITBO20120369A1 (it) * 2012-07-06 2014-01-07 Cefla Coop Uso del riconoscimento dei gesti in odontoiatria
KR102244258B1 (ko) * 2013-10-04 2021-04-27 삼성전자주식회사 디스플레이 장치 및 이를 이용한 영상표시방법
KR101604812B1 (ko) * 2014-01-15 2016-03-18 삼성전자주식회사 의료 영상 처리 장치 및 그에 따른 의료 영상 처리 방법
CN105359094A (zh) 2014-04-04 2016-02-24 微软技术许可有限责任公司 可扩展应用表示
EP3129847A4 (de) 2014-04-10 2017-04-19 Microsoft Technology Licensing, LLC Schiebeabdeckung für computervorrichtung
US9208562B1 (en) 2014-05-20 2015-12-08 Camelot Biomedical Systems Srl Method for synchronized navigation of sets of two or more biomedical images
CN106662891B (zh) 2014-10-30 2019-10-11 微软技术许可有限责任公司 多配置输入设备
US9973647B2 (en) 2016-06-17 2018-05-15 Microsoft Technology Licensing, Llc. Suggesting image files for deletion based on image file parameters
JP2018005091A (ja) * 2016-07-06 2018-01-11 富士通株式会社 表示制御プログラム、表示制御方法および表示制御装置
US20180095960A1 (en) * 2016-10-04 2018-04-05 Microsoft Technology Licensing, Llc. Automatically uploading image files based on image capture context
WO2019086457A1 (en) * 2017-11-02 2019-05-09 Siemens Healthcare Gmbh Generation of composite images based on live images
US12295777B2 (en) 2022-04-14 2025-05-13 GE Precision Healthcare LLC Method and workstation for generating a joint-visualization image based on multiple functional imaging datasets

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1717679B1 (de) 1998-01-26 2016-09-21 Apple Inc. Verfahren zur Integration von manuellen Eingaben
US7945855B2 (en) * 2003-03-24 2011-05-17 Microsoft Corporation Smart space insertion
US7490295B2 (en) * 2004-06-25 2009-02-10 Apple Inc. Layer for accessing user interface elements
US8972902B2 (en) * 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
EP2017756A1 (de) * 2007-07-20 2009-01-21 BrainLAB AG Verfahren zur Anzeige und/oder Bearbeitung bzw. Verarbeitung von Bilddaten medizinischen oder medizintechnischen Ursprungs mit Gestenerkennung
JP5171386B2 (ja) * 2008-05-19 2013-03-27 キヤノン株式会社 コンテンツ管理装置、コンテンツ管理方法、プログラム及び記録媒体
JP4662084B2 (ja) * 2008-07-25 2011-03-30 セイコーエプソン株式会社 液体吐出ヘッドおよび液体噴射装置
EP2207342B1 (de) * 2009-01-07 2017-12-06 LG Electronics Inc. Mobiles Endgerät und Kamerabildsteuerungsverfahren dafür
KR101655812B1 (ko) * 2010-05-06 2016-09-08 엘지전자 주식회사 휴대 단말기 및 그 동작 방법

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BrainLab AG: World Premiere at University Hospital in Munich: Digital Lightbox. 31.07.08. (recherchiert am 02.09.09). Im Internet: http://www.brainlab.com/scripts/website_english.as ?articleID=2544> *
BrainLab AG: World Premiere at University Hospital in Munich: Digital Lightbox. 31.07.08. (recherchiert am 02.09.09). Im Internet: http://www.brainlab.com/scripts/website_english.asp?articleID=2544>

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2549431A1 (de) * 2011-07-21 2013-01-23 Sick Ag Bildfusion zur Überwachung eines Gefahrenbereichs
DE102011052050A1 (de) * 2011-07-21 2013-01-24 Sick Ag 3D-Kamerasystem

Also Published As

Publication number Publication date
US8525852B2 (en) 2013-09-03
US20100201708A1 (en) 2010-08-12

Similar Documents

Publication Publication Date Title
DE102009004898A1 (de) Verfahren zur Darstellung zweier unterschiedlicher Bilder eines Fusionsbildes und Vorrichtung hierfür
DE4022384C2 (de) Verfahren zur Anzeige der Umrisse der Rahmen einer vorausbestimmten Bildfolge
DE102008028023A1 (de) Verfahren zur Darstellung mehrerer Bilddatensätze und Benutzerinterface zur Darstellung mehrerer Bilddatensätze
DE10206397B4 (de) Verfahren zur Darstellung von Projektions- oder Schnittbildern aus 3D-Volumendaten eines Untersuchungsvolumens
DE10392341T5 (de) System-GUI zur Identifikation und synchronisierten Anzeige einer Objektkorrespondenz in CT-Volumenbildsätzen
DE102004022902B4 (de) Verfahren zur medizinischen Bilddarstellung und -verarbeitung, Computertomografiegerät, Arbeitsstation und Computerprogrammprodukt
EP1432231A2 (de) Einrichtung und Verfahren zur störungsarmen Aufnahme von hochaufgelösten zweidimensionalen Bildern
EP1994501A1 (de) Verfahren und vorrichtung zum erzeugen einer strukturfreien fiberskopischen aufnahme
DE102007023506A1 (de) Verfahren zum Darstellen von Bildobjekten in einem virtuellen dreidimensionalen Bildraum
DE102005023907A1 (de) Verfahren zur Ermittlung von Positronen-Emissions-Messinformationen im Rahmen der Positronen-Emissions-Tomographie
DE69409554T2 (de) Von 3D-Bildsystem abgeleitete visuelle Darstellung von Information
DE102006003609A1 (de) Tomographie-System und Verfahren zur Visualisierung einer tomographischen Darstellung
DE10256659A1 (de) Engabevorrichtung zur Orientierung in einer dreidimensionalen Visualisierung, Verfahren zur Visualisierung von dreidimensionalen Datensätzen, Darstellungsvorrichtung zur Darstellung einer Visualisierung von dreidimensionalen Datensätzen, Verfahren zum Betrieb eines bildgebenden medizinischen Üntersuchungsgeräts und Verfahren zur graphischen Positionierung einer mittels eines bildgebenden medizinischen Untersuchungsgeräts zu messenden Schicht in einem dreidimensionalen Datensatz einer Vorbereitungsmessung
DE102014210893A1 (de) Verfahren zum Betrieb einer Bildaufnahmeeinrichtung mit Touchscreen und Bildaufnahmeeinrichtung
DE102012208931A1 (de) Vorrichtung zur gleichzeitigen Darstellung mehrerer Informationen
DE102014115363A1 (de) Virtuelles Zeichen in realer Umgebung
DE102005017850B4 (de) Verfahren zur Integration vektorieller und/oder tensorieller Messdaten in eine Darstellung einer anatomischen Bildaufnahme
DE102008009190A1 (de) Verfahren zur automatischen Bestimmung der Ruhephase des Herzens
DE19953308A1 (de) Vorrichtung und Verfahren zum Implementieren eines Bild-Spreadsheets
DE102008045633A1 (de) Verfahren zur verbesserten Darstellung von Mehr-Energie-CT-Aufnahmen
DE10224756B4 (de) Verfahren und Vorrichtung zur Erzeugung einer kombinierten Parameterkarte
DE102006006449A1 (de) Verfahren zum Betrieb einer Röntgendiagnostikeinrichtung zur Erzeugung hochaufgelöster Bilder
DE102006004006B3 (de) Verfahren und Vorrichtung zur Erzeugung eines hoch aufgelösten Bildes für faseroptische Systeme
DE102007023719A1 (de) Verfahren zum Erzeugen eines Bildes und System zum Erzeugen eines Bildes
DE102006006309A1 (de) Verfahren zum Betrieb einer Magnetresonanzeinrichtung sowie Magnetresonanzeinrichtung zur Durchführung des Verfahrens

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee