DE102007028731A1 - Device for recording three-dimensional objects, has additional data set that is provided to create records of three-dimensional objects, and primary module for producing three-dimensional graphic data of three-dimensional objects - Google Patents
Device for recording three-dimensional objects, has additional data set that is provided to create records of three-dimensional objects, and primary module for producing three-dimensional graphic data of three-dimensional objects Download PDFInfo
- Publication number
- DE102007028731A1 DE102007028731A1 DE102007028731A DE102007028731A DE102007028731A1 DE 102007028731 A1 DE102007028731 A1 DE 102007028731A1 DE 102007028731 A DE102007028731 A DE 102007028731A DE 102007028731 A DE102007028731 A DE 102007028731A DE 102007028731 A1 DE102007028731 A1 DE 102007028731A1
- Authority
- DE
- Germany
- Prior art keywords
- objects
- data
- records
- module
- obn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/90—Identification means for patients or instruments, e.g. tags
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/373—Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/74—Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Veterinary Medicine (AREA)
- Radar, Positioning & Navigation (AREA)
- Animal Behavior & Ethology (AREA)
- General Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Electromagnetism (AREA)
- Heart & Thoracic Surgery (AREA)
- Databases & Information Systems (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Data Mining & Analysis (AREA)
- Image Processing (AREA)
Abstract
Bei dieser Vorrichtung und dem dazugehörigen Verfahren werden dreidimensionale Bilddaten von Örtlichkeiten erfasst und Objekte/Geräte separiert, wobei aus den vorliegenden und zuordenbaren Datensätzen Bewegungsabläufe ermittelt werden sowie in Bedienfunktionen steuernd eingegriffen werden kann.In this device and the associated method, three-dimensional image data of localities are detected and objects / devices are separated, wherein motion sequences can be determined from the available and assignable data records and control actions can be intervened in operating functions.
Description
Die Erfindung bezieht sich auf eine Vorrichtung bzw. ein Verfahren zur Zuordnung, insbesondere von objektorientierten Daten.The The invention relates to a device or a method for Mapping, in particular object-oriented data.
Ein Umfeld in einem Operationssaal ist geprägt durch eine Vielzahl von Gerätesystemen, die permanent oder zeitweise für diagnostische Zwecke oder Eingriffe an Patienten herangezogen werden. Dabei ist die Kenntnis einer zeitabhängigen Position eines Objektes/Gerätesystems und der diese Einheiten bedienenden Personen sowie deren Lauf und Verschiebewege von großem Interesse, um beispielsweise partiell einen Ablauf eines operativen Eingriffs zu gestalten. Eine Positionierung der Gerätesysteme ist abhängig von den beteiligten Personen, verbunden mit der Kenntnis wann und wo Geräte bei Patienten benötigt werden müssen. Eine Kollision, eine falsche Einstellung oder Führung wird weitestgehend durch Einhaltung von Bedienungsvorschriften der Gerätehersteller und durch die beteiligten Personen vermieden.One Environment in an operating room is characterized by a variety of Equipment systems, the permanent or temporary for diagnostic purposes or interventions on patients. there is the knowledge of a time-dependent Position of an object / device system and the persons serving these units as well as their course and displacement of great Interest, for example, partially a course of surgery to design. Positioning of the device systems depends on the persons involved, combined with the knowledge when and where equipment needed in patients Need to become. A collision, an incorrect attitude or leadership is largely by Compliance with operating instructions of the device manufacturers and by the involved persons avoided.
Der Erfindung liegt die Aufgabe zugrunde, einen Weg zu zeigen, Personen und/oder Geräten Daten zuzuordnen.Of the Invention has for its object to show a way people and / or devices Assign data.
Die Aufgabe wird durch die im Patentanspruch 1 oder 7 angegebenen Merkmale gelöst.The The object is achieved by the features specified in claim 1 or 7 solved.
Bei der Vorrichtung und einem dazugehörigen Verfahren zur Erfassung von dreidimensionalen Objekten werden zu erstellten Datensätzen von erfassten Objekten jeweils abrufbare ergänzende Datensätze hinzugefügt, sodass in Bewegungsabläufe und/oder Bedienfunktionen der Objekte steuernd eingegriffen werden kann.at the device and an associated method for detection of three-dimensional objects become created datasets of added retrievable supplementary records, so that in motion sequences and / or Control functions of objects can be controlled intervention.
Vorteilhafte Ausgestaltungen der Erfindung sind in den Unteransprüchen angegeben.advantageous Embodiments of the invention are specified in the subclaims.
Die Erfindung bringt den Vorteil mit sich, dass z. B. von Geräten, Geräteeinheiten, Personen, Körperteilen oder Organen jeweils deren Position erfasst und diese jeweils identifiziert werden.The Invention brings with it the advantage that z. B. of devices, device units, Persons, body parts or organs each record their position and identify each of them become.
Die Erfindung bringt den Vorteil mit sich, dass eine mögliche Kollision von Geräten und Objekten aufgrund der jeweiligen Verschiebungs- und Laufwege erkannt und vermieden wird.The Invention has the advantage that a possible collision of devices and objects due to the respective displacement and travel paths is detected and avoided.
Die Erfindung bringt den Vorteil mit sich, dass aufgrund der erstellten Datensätze aus einer dreidimensionalen Aufnahme und den zu den Identifikationsdaten abrufbaren Datensätzen beispielsweise von Gerätesystemen eine Ausrichtung dieser zum Patienten und diesen behandelnden Personen möglich ist.The Invention has the advantage that due to the created records from a three-dimensional image and the identification data retrievable records for example, of device systems an alignment of these with the patient and those treating them possible is.
Die Erfindung bringt den Vorteil mit sich, dass die Position und Lage des Patienten auf einem OP-Tisch erfasst wird und eine dazu optimale Positionierung eines Diagnose- oder medizinischen Gerätes eingestellt werden kann.The Invention brings with it the advantage that the position and location of the patient is recorded on an operating table and an optimal for doing so Positioning of a diagnostic or medical device is set can be.
Die Erfindung bringt den Vorteil mit sich, dass eine Navigation von Komponenten identifizierter Geräteeinheiten durchführbar ist.The Invention brings the advantage that a navigation of Components of identified device units feasible is.
Die Erfindung bringt den Vorteil mit sich, dass eine telemedizinische Anwendung von Geräten möglich ist.The Invention has the advantage that a telemedical Application of devices is possible.
Die Erfindung bringt den Vorteil mit sich, dass mit einer Radio Frequency Identification RFID Technologie eine einfache Zuordnung von Daten zu Geräten oder Personen möglich ist.The Invention has the advantage of having a Radio Frequency Identification RFID technology a simple assignment of data to devices or persons possible is.
Die Erfindung bringt den Vorteil mit sich, dass aufgrund einer schnellen Positionserkennung von Objekten in einen möglichen Positionierungsvorgang von Geräten/Objekten steuernd eingegriffen werden kann.The Invention has the advantage that due to a fast Position detection of objects in a possible positioning process of devices / objects controlling action can be taken.
Die Erfindung bringt den Vorteil mit sich, dass auf der Basis einer Optimierung der Verschiebewege und Einsatzbereiche von Geräten oder Geräteeinheiten eine Optimierung des Arbeitsablaufes möglich ist.The Invention brings with it the advantage that on the basis of a Optimization of the displacement paths and areas of application of devices or equipment units an optimization of the workflow is possible.
Die Erfindung bringt den Vorteil mit sich, dass sie zur Navigation von Geräten, Instrumenten, Robotern oder in bildgebundenen Systemen Verwendung findet.The Invention has the advantage that it is used to navigate Devices, Instruments, robots or in image-based systems place.
Die Erfindung soll im Folgenden mittels eines in den Zeichnungen dargestellten Ausführungsbeispieles näher erläutert werden.The Invention will be described below by means of one shown in the drawings embodiment be explained in more detail.
Dabei zeigen:there demonstrate:
In
Optional kann ein drittes System in einem dritten Modul OBK zur Objekterkennung hinzugefügt werden. Mit diesem dritten Modul OBK werden die Daten der über die Aufnahmeeinheiten K1, K2, ..., Kn, PMD/CCD optisch erfassten Gegenstände einer Prozedur zur Objekterkennung unterzogen und in einem dritten Datensatz abgespeichert. Anhand der abgespeicherten ersten, zweiten und dritten Datensätze können die Objekte/Geräte erkannt und identifiziert werden. Nach ihrer Identifizierung können dann diese Objekte durch zusätzliche ergänzende Datensätze, in denen zum Beispiel deren räumliche Ausmaße und relative Bewegungs- sowie Bedienmöglichkeiten zusammengefasst sind, ergänzt werden.optional may be a third system in a third module OBK for object detection to be added. With this third module OBK the data of the over the Recording units K1, K2, ..., Kn, PMD / CCD optically detected objects of a procedure subjected to object detection and stored in a third record. Based on the stored first, second and third records, the Objects / devices be recognized and identified. After their identification can then these objects through additional supplementary records, in for example their spatial dimensions and relative Movement and control options are summarized, supplemented become.
In dem ersten Modul RB ist in Verbindung mit den Aufnahmeeinheiten PMD/CCD oder Kn eine Verarbeitungseinheit zur Erstellung von dreidimensionalen Bildern oder Videos angeordnet. Diese Bilder oder Aufnahmesequenzen werden mit dem Photonic Mixer Device in Verbindung mit einer hoch auflösenden Charge Coupled Device CCD Kamera-Chip-Technologie erstellt. Ein niedrig auflösendes Entfernungsbild mit einer Pixelanzahl von z. B. 100×200 Bildpunkten wird mit hoch aufgelösten Aufnahmen von Kamerabildern, wie z. B. 1 MBit CCD Chip, alternativ auch ein Chip in CMOS-Technologie, ortsgetreu hardwaremäßig überlagert. Die Entfernungsbilder werden pixelweise beispielswei se auf Basis von Infrarotlaufzeitmessungen ermittelt. Die Fusion eines ersten Bildes, ein hoch auflösendes optisches CCD-Bildes mit einem zweiten Bild, einem PMD-Tiefenbild, ergibt ein hoch aufgelöstes 3D Bild bzw. Video mit einer Tiefenauflösung. Zur Fusion benötigt man beispielsweise ein Prisma sowie einen Infrarotfilter; die Fusion der beiden Bilder erfolgt nach Kalibrierung mittels einer Soft- oder Hardware, welche die beiden gleich großen Bilder miteinander fusioniert. Beide Bildkomponenten, das erste hoch auflösende optische CCD Bild und das zweite PMD-Tiefenbild werden in den Aufnahmeeinheiten Kn aufgenommen und wie oben beschrieben entweder direkt oder in nachgeordneten Modulen objektorientiert verarbeitet. Durch die Fusion des ersten und zweiten Bildes werden hoch auflösende 3D-Real-Time-Bilder erzeugt.In the first module RB is in connection with the receiving units PMD / CCD or Kn a processing unit for creating three-dimensional Arranged pictures or videos. These pictures or recording sequences become with the Photonic Mixer Device in conjunction with a high resolution Charge Coupled Device CCD camera chip technology created. One low-resolution range image with a pixel number of z. B. 100 × 200 pixels becomes high resolved Taking pictures of camera pictures, such as 1 MBit CCD chip, alternatively also a chip in CMOS technology, locally superimposed hardware-wise. The distance images are pixel by pixel, for example, based on determined by infrared transit time measurements. The merger of a first Picture, a high resolution optical CCD image with a second image, a PMD depth image, results in a high-resolution 3D Image or video with a depth resolution. You need to merge for example, a prism and an infrared filter; the merger The two images are taken after calibration by means of a soft- or hardware that fuses the two equally sized images together. Both image components, the first high-resolution optical CCD image and the second PMD depth image is recorded in the recording units Kn and as described above, either directly or in downstream Modules object-oriented processed. By the merger of the first and second image, high-resolution 3D real-time images are generated.
Für eine höhere Auflösung einer Örtlichkeit können auch mehrere Aufnahmeeinheiten der beschriebenen Art ein Abbild der Örtlichkeit erstellen und zu einem detaillierteren dreidimensionalen Bild verknüpft werden.For a higher resolution of a location can also several recording units of the type described an image of the location create and link to a more detailed three-dimensional image.
In dem zweiten Modul RFID ist mindestens ein Radio Frequency Identification RFID Lesegerät mit zugehöriger Antenne angeordnet. Mit diesem Lesegerät können auf Transpondern gespeicherte Daten erfasst werden. Diese Transponder können z. B. in einem RFID-Etikett, Smart Tag, Smart Label, RFID-Chip, RFID-Tag oder Funketikett integriert sein. Ein Radio Frequency Identification RFID-System ermöglicht eine Lokalisierung und Identifikation mittels Funkerkennung. Aus Transponder die an oder in Objekten oder Geräten angeordnet sind, können berührungslos und ohne Sichtkontakt Daten ausgelesen werden. Je nach passiver oder aktiver Ausführung des Transponders, benutztem Frequenzband oder Sendeleistung können unterschiedliche Distanzen überbrückt werden. Die Datenübertragung zwischen Transponder und Lesegerät findet mittels elektromagnetischer Wellen statt. Bei niedrigen Frequenzen geschieht dies induktiv über ein Nahfeld, bei höheren über ein elektromagnetisches Fernfeld. Durch ein Ortungssystem, bezogen auf die Örtlichkeit, oder über ein globales Positionssystem GPS kann eine räumliche Zuordnung des Transponders erfolgen.In The second module RFID is at least one Radio Frequency Identification RFID reader with associated Antenna arranged. With this reader can be stored on transponders Data is collected. These transponders can z. In an RFID tag, Smart Tag, Smart Label, RFID Chip, RFID Tag or Radio Tag. One Radio Frequency Identification RFID system allows for localization and Identification by means of radio detection. From transponders to or in objects or devices are arranged contactless and without visual contact data are read out. Depending on the passive or active execution of the Transponders, used frequency band or transmission power can be different Distances are bridged. The data transmission between transponder and reader takes place by means of electromagnetic waves. At low frequencies happens this inductively over a near field, at higher above one electromagnetic far field. By a location system, based on the location, or about one global positioning system GPS can be a spatial assignment of the transponder respectively.
In dem vierten Modul ZM werden die vorliegenden ersten, zweiten und/oder dritten Datensätze aus dem ersten und zweiten Modul RB, RFID und/oder dritten Modul OBK miteinander verknüpft. Diese Daten können durch die im externen Datenspeicher DB abgespeicherten ergänzenden Datensätze vervollständigt werden. Aufgrund dieser Verknüpfung sind zu den jeweiligen Objekten OBn, Gn Daten über deren Positionierung, deren räumliche Ausmaße sowie weitere technische Daten, wie z. B. Bedienfunktionen bekannt. Diese Daten der verknüpften Datensätze werden miteinander in Beziehung gesetzt. In einer dem vierten Modul ZM nachgeordneten Managementeinheit MEE können Verwendungsprofile, Verschiebewege oder Endpositionen von Objekten/Geräten sowie ein Zusammenwirken von beteiligten Objekten/Geräten erstellt und steuernd in deren Einstellungen oder Positionierungen eingegriffen werden. So kann es bei einem Unterschreiten von vorgebaren Schwellwerten zu einem Stopp in einem Bewegungsablauf eines beteiligten Gerätes kommen.In the fourth module ZM, the present first, second and / or third data sets from the first and second modules RB, RFID and / or third module OBK are linked together. This data can be completed by the additional data records stored in the external data memory DB. Because of this link to the respective objects OBn, Gn data on their positioning, their spatial dimensions and other technical data, such. B. operating functions known. These data of linked records are related. In a management unit MEE downstream of the fourth module ZM, use profiles, displacement paths or end positions of objects / devices as well as interaction can be used created by involved objects / devices and controlled in their settings or positions are intervened. For example, if the threshold values fall below a predetermined level, a stop may occur in a movement sequence of a participating device.
In
- RBRB
- erstes Modulfirst module
- RFIDRFID
- zweites Modulsecond module
- OBKOBK
- drittes Modulthird module
- ZMZM
- viertes Modulfourth module
- MEEMEE
- Managementeinheitmanagement unit
- PMDPMD
- Photonic Mixer DevicePhotonic Mixer Device
- CCDCCD
- Charge-coupled DeviceCharge-Coupled Device
- 3D3D
- dreidimensionales Bildthree-dimensional image
- OB1, OB2, OB3, GnOB1, OB2, OB3, Gn
- Objektl/Gerät1, Objekt2/Gerät2Object1 / Device1, Object2 / Device2
- K1, K2, KnK1, K2, Kn
- Aufnahmeeinheit1, Aufnahmeeinheit2, ...Receiving unit 1, receiving unit 2, ...
- DBDB
- Datenbankendatabases
Claims (9)
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102007028731A DE102007028731A1 (en) | 2007-06-21 | 2007-06-21 | Device for recording three-dimensional objects, has additional data set that is provided to create records of three-dimensional objects, and primary module for producing three-dimensional graphic data of three-dimensional objects |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102007028731A DE102007028731A1 (en) | 2007-06-21 | 2007-06-21 | Device for recording three-dimensional objects, has additional data set that is provided to create records of three-dimensional objects, and primary module for producing three-dimensional graphic data of three-dimensional objects |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102007028731A1 true DE102007028731A1 (en) | 2009-01-02 |
Family
ID=40075825
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102007028731A Withdrawn DE102007028731A1 (en) | 2007-06-21 | 2007-06-21 | Device for recording three-dimensional objects, has additional data set that is provided to create records of three-dimensional objects, and primary module for producing three-dimensional graphic data of three-dimensional objects |
Country Status (1)
| Country | Link |
|---|---|
| DE (1) | DE102007028731A1 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102014212632A1 (en) * | 2014-06-30 | 2015-12-31 | Trumpf Medizin Systeme Gmbh + Co. Kg | A method of monitoring operation of a medical device |
| US9987093B2 (en) | 2013-07-08 | 2018-06-05 | Brainlab Ag | Single-marker navigation |
| WO2021239873A1 (en) | 2020-05-29 | 2021-12-02 | Karl Leibinger Medizintechnik Gmbh & Co. Kg | System for monitoring an operating light assembly |
| WO2021239874A1 (en) | 2020-05-29 | 2021-12-02 | Karl Leibinger Medizintechnik Gmbh & Co. Kg | System for monitoring a surgical light system |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102004058911A1 (en) * | 2003-12-19 | 2005-07-21 | Stryker Leibinger Gmbh & Co. Kg | Reactive workflow system and method |
| EP1719472A1 (en) * | 2005-05-04 | 2006-11-08 | BrainLAB AG | Devices and methods for automatic verification, calibration and measurement of instruments for computer aided surgery |
| DE102005029903A1 (en) * | 2005-06-25 | 2007-01-04 | Universitätsklinikum Hamburg-Eppendorf | Method and device for 3D navigation on slice images |
-
2007
- 2007-06-21 DE DE102007028731A patent/DE102007028731A1/en not_active Withdrawn
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102004058911A1 (en) * | 2003-12-19 | 2005-07-21 | Stryker Leibinger Gmbh & Co. Kg | Reactive workflow system and method |
| EP1719472A1 (en) * | 2005-05-04 | 2006-11-08 | BrainLAB AG | Devices and methods for automatic verification, calibration and measurement of instruments for computer aided surgery |
| DE102005029903A1 (en) * | 2005-06-25 | 2007-01-04 | Universitätsklinikum Hamburg-Eppendorf | Method and device for 3D navigation on slice images |
Cited By (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9987093B2 (en) | 2013-07-08 | 2018-06-05 | Brainlab Ag | Single-marker navigation |
| DE102014212632A1 (en) * | 2014-06-30 | 2015-12-31 | Trumpf Medizin Systeme Gmbh + Co. Kg | A method of monitoring operation of a medical device |
| DE102014212632B4 (en) | 2014-06-30 | 2023-05-04 | Trumpf Medizin Systeme Gmbh + Co. Kg | Method for monitoring operation of a medical device |
| WO2021239873A1 (en) | 2020-05-29 | 2021-12-02 | Karl Leibinger Medizintechnik Gmbh & Co. Kg | System for monitoring an operating light assembly |
| DE102020114416A1 (en) | 2020-05-29 | 2021-12-02 | Karl Leibinger Medizintechnik Gmbh & Co. Kg | System for monitoring a surgical light arrangement |
| WO2021239874A1 (en) | 2020-05-29 | 2021-12-02 | Karl Leibinger Medizintechnik Gmbh & Co. Kg | System for monitoring a surgical light system |
| DE102020114418A1 (en) | 2020-05-29 | 2021-12-02 | Karl Leibinger Medizintechnik Gmbh & Co. Kg | System for monitoring a surgical light arrangement |
| US12200842B2 (en) | 2020-05-29 | 2025-01-14 | Karl Leibinger Asset Management Gmbh & Co. Kg. | System for monitoring a surgical luminaire assembly |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE19961971B4 (en) | Device for safely automatically tracking an endoscope and tracking an instrument | |
| EP3108282B1 (en) | Production of an observation image of an object region | |
| DE212010000184U1 (en) | System for scanning a human body | |
| EP3332730B1 (en) | Method and tracking system for tracking a medical object | |
| EP2926733A1 (en) | Triangulation-based depth and surface visualisation | |
| EP3156967B1 (en) | Method and device for creating a microscopic panorama | |
| DE102008037424A1 (en) | Improved system and method for volume based registration | |
| DE102010042278A1 (en) | Operation navigation system with structured light | |
| DE102014102425B4 (en) | Microscope system and microscopy method using digital markers | |
| DE10250954B4 (en) | Method and device for carrying out a televisite and televisite receiving device | |
| DE102007028731A1 (en) | Device for recording three-dimensional objects, has additional data set that is provided to create records of three-dimensional objects, and primary module for producing three-dimensional graphic data of three-dimensional objects | |
| DE102014212632A1 (en) | A method of monitoring operation of a medical device | |
| EP2406697A1 (en) | Method and system for recognising an object, and method and system for generating a marking in a screen representation by means of a non-contact gesture-controlled screen pointer | |
| DE102020200959A1 (en) | Recording of a panorama data set of an examination subject by means of a movable medical X-ray device | |
| EP4075396A1 (en) | Method and assembly for optically detecting a head of a person | |
| DE102022125798A1 (en) | Procedure for medical technical calibration | |
| DE102009007412B4 (en) | Method for tracking at least one object | |
| DE102022126824A1 (en) | Method for superimposing overlay recording information with a live image and a corresponding device | |
| DE102014110570A1 (en) | An imaging apparatus and method combining functional imaging and ultrasound imaging | |
| DE102009010592B4 (en) | Method and device for recording and evaluating digital image data with a surgical microscope | |
| DE102008024261B4 (en) | Arrangement and method for positioning surgical aids | |
| DE10125971A1 (en) | Method for measuring the distance of extended objects in connection with an optical viewing device and microscope for carrying out the same | |
| WO2010124672A1 (en) | Video-based mono-camera navigation system | |
| WO2017186225A1 (en) | Motion analysis system and motion tracking system comprising same of moved or moving objects that are thermally distinct from their surroundings | |
| DE102014210051A1 (en) | Method and device for determining a surface topography of a body |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| OP8 | Request for examination as to paragraph 44 patent law | ||
| 8139 | Disposal/non-payment of the annual fee |