[go: up one dir, main page]

DE102009044075A1 - Auf aktiven elektronischen Patientenakten basierendes Unterstützungssystem unter Nutzung von lernenden Automaten - Google Patents

Auf aktiven elektronischen Patientenakten basierendes Unterstützungssystem unter Nutzung von lernenden Automaten Download PDF

Info

Publication number
DE102009044075A1
DE102009044075A1 DE102009044075A DE102009044075A DE102009044075A1 DE 102009044075 A1 DE102009044075 A1 DE 102009044075A1 DE 102009044075 A DE102009044075 A DE 102009044075A DE 102009044075 A DE102009044075 A DE 102009044075A DE 102009044075 A1 DE102009044075 A1 DE 102009044075A1
Authority
DE
Germany
Prior art keywords
data
interest
image data
classification
source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102009044075A
Other languages
English (en)
Inventor
Gopal B. Memomonee Falls Avinash
Suresh K. Delafield Choubey
Saad Ahmet Pewaukee Sirohey
Stephen W. Greenfield Metz
David Matthew Delafield Deaven
Michael J. Mequon Barber
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE102009044075A1 publication Critical patent/DE102009044075A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/56Details of data transmission or power supply, e.g. use of slip rings
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Pathology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Human Resources & Organizations (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Business, Economics & Management (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Strategic Management (AREA)
  • Veterinary Medicine (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Data Mining & Analysis (AREA)
  • Operations Research (AREA)
  • Optics & Photonics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Abstract

Es wird eine Datenverarbeitungstechnik bereitgestellt. In einer Ausführungsform beinhaltet ein auf einem Computer implementiertes Verfahren eine Aufnahme von Bilddaten (164) aus einem Bildgebungssystem und eine Organisation (172) der Bilddaten in mehrere interessierende Objekte. Das Verfahren kann auch eine Identifizierung (168) quelleninvarianter Merkmale der mehreren interessierenden Objekte und eine Klassifizierung (170) der mehreren interessierenden Objekte mittels eines lernenden Algorithmus in Kategorien, die wenigstens teilweise auf den identifizierten quelleninvarianten Merkmalen basieren, beinhalten. Ferner kann das Verfahren eine Ausgabe (174) eines Berichts basierend wenigstens zum Teil auf Daten beinhalten, die aus der Klassifizierung eines oder mehrerer der mehreren interessierenden Objekte abgeleitet werden. Zusätzliche Verfahren, Systeme und Vorrichtungen sind ebenfalls offenbart.

Description

  • HINTERGRUND
  • Die Erfindung betrifft im Wesentlichen das Gebiet medizinischer Datenverarbeitung und insbesondere Techniken zum Trainieren und Nutzen von lernenden Automaten bzw. Maschinen.
  • Auf dem medizinischen Gebiet stehen viele unterschiedliche Werkzeuge zum Erkennen und Behandeln von Zuständen eines Patienten zur Verfügung. Herkömmlicherweise würden Ärzte Patienten untersuchen und aus einer riesigen Palette über Jahre des Studiums und der Erfahrung zusammengetragener persönlicher Kenntnis schöpfen, um von Patienten empfundene Probleme und Zustände zu identifizieren und um geeignete Behandlungen festzulegen. Quellen für Unterstützungsinformationen umfassten herkömmlicherweise weitere Fachärzte, Nachschlagewerke und Handbücher, relativ einfache Untersuchungsergebnisse und Analysen usw. Innerhalb der letzten Jahrzehnte und insbesondere in den letzten Jahren wurde eine große Palette weiterer Referenzmaterialien und Entscheidungsfindungs-Unterstützungswerkzeuge für den Facharzt verfügbar, welche die verfügbaren Ressourcen erheblich erweitern und die Patientenbetreuung intensivieren und verbessern.
  • Beispielsweise können riesige Mengen an patientenbezogenen Informationen, wie z. B. Personenkenndaten, Patientengeschichte, Testergebnisse, Bilddaten und dergleichen, für diesen Patienten gesammelt und in elektronischer Form in einer elektronischen Patientenakte (EMR, Electronic Medical Record) sein. Derartige EMRs können den Entscheidungsfindungsprozess eines Arztes verbessern, indem sie dem Arzt alle oder einen wesentlichen Teil von relevanten Patientendaten in einer effizienten Weise zur Verfügung stellen, statt zu erfordern, dass der Arzt die Daten von mehreren Orten und Quellen zusammensammelt. Ferner ist nachvollziehbar, dass die Sammlung relevanter Patientendaten an einer zentralen Stelle, wie z. B. in einer EMR, die Entwicklung von Entscheidungsfindungs-Unterstützungswerkzeugen zur Unterstützung des Arztes bei der Diagnose und Behandlung eines Patienten fördern kann. Eine ”aktive” EMR nutzt beispielsweise die Daten in der EMR in einem Verarbeitungsalgorithmus, um dem Arzt in einem Entscheidungsfindungsprozess Unterstützung zu geben.
  • Ein exemplarischer Verarbeitungsalgorithmus kann ein lernender Algorithmus zur Klassifizierung von Objekten auf der Basis ihrer Merkmale zur Lösung interessierender Probleme sein. Es ist jedoch nachvollziehbar, dass die Entwicklung eines derartigen lernenden Algorithmus, einschließlich des Trainings und des Tests des lernenden Algorithmus, typischerweise ein langer Prozess ist. Ferner hängen derartige lernende Algorithmen oft von für das Datenerfassungssystem, mit welchem die Daten erfasst wurden, charakteristischen Dateneigenschaften ab. Demzufolge werden in medizinischen Anwendungen lernende Algorithmen aufgrund des Umstandes, dass sich die medizinische Technologie rasch entwickelt und dass auf der Basis zuvor erfasster Daten trainierte und getestete lernende Algorithmen nicht mehr bei mit neueren oder unterschiedlichen Technologien erfassten aktuellen Daten anwendbar sind, selten genutzt.
  • KURZBESCHREIBUNG
  • Bestimmte Aspekte, die dem Rahmen der ursprünglich beanspruchten Erfindung entsprechen, sind nachstehend beschrieben. Es dürfte sich verstehen, dass diese Aspekte lediglich darge stellt werden, um dem Leser eine Kurzbeschreibung bestimmter Formen zu geben, die die Erfindung annehmen kann, und dass diese Aspekte nicht als Einschränkung des Schutzumfangs der Erfindung gedacht sind. Tatsächlich kann die Erfindung eine Vielfalt von Aspekten umfassen, die nachstehend nicht angegeben sein können.
  • Ausführungsformen der vorliegenden Erfindung können im Wesentlichen Techniken zum Trainieren eines lernenden Algorithmus oder Automaten und zum Verarbeiten von Daten mit einem derartigen Algorithmus oder Automaten betreffen. In einer Ausführungsform wird ein lernender Automat (eine lernende Maschine) mittels eines datengesteuerten Prozesses trainiert, getestet und validiert. In einer weiteren Ausführungsform werden Daten von einem oder mehreren Datenerfassungssystemen erhalten, und es werden bezüglich der Erfassungsquelle invariante Merkmale aus den Daten abgeleitet und anschließend durch einen lernenden Algorithmus verarbeitet, um eine Entscheidungsfindungsunterstützung für einen Benutzer bereitzustellen. Insbesondere stellt der Prozess in einer Ausführungsform eine Entscheidungsfindungsunterstützung für einen Arzt bei der Diagnose eines Patienten bereit.
  • Es können verschiedene Weiterentwicklungen der vorstehend genannten Merkmale in Bezug auf verschiedene Aspekte der vorliegenden Erfindung bestehen. Weitere Merkmale können ebenfalls in diese verschiedenen Aspekte einbezogen sein. Diese Weiterentwicklungen und zusätzlichen Merkmale können einzeln oder in beliebiger Kombination vorliegen. Beispielsweise können verschiedene nachstehend in Bezug auf eine oder mehrere von den dargestellten Ausführungsformen diskutierte Merkmale in einem beliebigen von den vorstehend beschriebenen Aspekten der vorliegenden Erfindung alleine oder in irgendeiner Kombination einbezogen sein. Wiederum soll die vorstehend präsen tierte Kurzbeschreibung nur den Leser mit bestimmten Aspekten und Zusammenhängen der vorliegenden Erfindung ohne Einschränkung des beanspruchten Erfindungsgegenstandes vertraut machen.
  • ZEICHNUNGEN
  • Diese und weitere Merkmale, Aspekte und Vorteile der vorliegenden Erfindung werden besser verständlich, wenn die nachstehende detaillierte Beschreibung unter Bezugnahme auf die beigefügten Zeichnungen gelesen wird, in welchen gleiche Bezugszeichen gleiche Teile durchgängig durch die Zeichnungen bezeichnen, in welchen zeigen:
  • 1 eine Blockdarstellung einer exemplarischen prozessorbasierenden Vorrichtung oder eines prozessorbasierten Systems gemäß einer Ausführungsform der vorliegenden Erfindung;
  • 2 eine Blockdarstellung, welche allgemein den Betrieb eines ein Datenerfassungssystem und ein Datenverarbeitungssystem enthaltenden exemplarischen Systems gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulicht;
  • 3 eine allgemeine schematische Darstellung einer exemplarischen Datenerfassungsressource von 2, welche verschiedene allgemeine Komponenten oder Module zur Erfassung eine Körperfunktion und einen Zustand repräsentierender elektrischer Daten enthält;
  • 4 eine allgemeine schematische Darstellung bestimmter funktionaler Komponenten eines medizinischen Diagnosebildgebungssystems, das Teil einer Datenerfassungsressource gemäß einer Ausführungsform der vorliegenden Erfindung sein kann;
  • 5 eine schematische Darstellung eines exemplarischen Röntgen-Bildgebungssystems, welches gemäß einer Ausführungsform der vorliegenden Erfindung verwendet werden kann;
  • 6 eine schematische Darstellung eines exemplarischen Magnetresonanz-Bildgebungssystems, welches gemäß einer Ausführungsform der vorliegenden Erfindung verwendet werden kann;
  • 7 eine schematische Darstellung eines exemplarischen Computertomographie-Bildgebungssystems, welches gemäß einer Ausführungsform der vorliegenden Erfindung verwendet werden kann;
  • 8 eine schematische Darstellung eines exemplarischen Positronen-Emmisions-Tomographie-Bildgebungssystems, welches gemäß einer Ausführungsform der vorliegenden Erfindung verwendet werden kann;
  • 9 ein Flussdiagramm eines exemplarischen Datenverarbeitungsverfahrens, das gemäß einer Ausführungsform der vorliegenden Erfindung bereitgestellt wird;
  • 10 eine Blockdarstellung, die verschiedene Module veranschaulicht, die eingesetzt werden können, um das Verfahren nach 9 gemäß einer Ausführungsform der vorliegenden Erfindung auszuführen;
  • 11 ein Ablaufdiagramm eines Prozesses, um eine Ausgabe an einen Benutzer gemäß einer Ausführungsform der vorliegenden Erfindung zu liefern; und
  • 12 ein Ablaufdiagramm eines exemplarischen Verfahrens zum Trainieren und Validieren eines lernenden Automaten gemäß einer Ausführungsform der vorliegenden Erfindung.
  • DETAILLIERTE BESCHREIBUNG
  • Eine oder mehrere spezifische Ausführungsformen der vorliegenden Erfindung sind nachstehend beschrieben. In dem Bemühen, eine knappe Beschreibung dieser Ausführungsformen zu liefern, können nicht alle Merkmale einer tatsächlichen Implementierung in der Beschreibung beschrieben werden. Es dürfte nachvollziehbar sein, dass bei der Entwicklung von jeder derartigen tatsächlichen Implementierung wie bei jedem technischen oder konstruktiven Projekt, zahlreiche implementationsspezifische Entscheidungen getroffen werden müssen, um die spezifischen Ziele des Entwicklers, wie z. B. eine Übereinstimmung mit systembezogenen und geschäftsbezogenen Randbedingungen, zu erzielen, welche von einer Implementierung zur anderen variieren können. Ferner dürfte nachvollziehbar sein, dass eine derartige Entwicklungsanstrengung zwar komplex und zeitaufwendig sein kann, aber trotzdem für den gewöhnlichen Fachmann mit dem Vorteil dieser Offenbarung ein routinemäßiges Unterfangen zur Auslegung, Herstellung und Fertigung darstellen würde.
  • Wenn Elemente verschiedener Ausführungsformen der vorliegenden Erfindung eingeführt werden, sollen die Artikel ”einer, eines, eine”, ”der, die, das” und ”besagter, besagte, besagtes” die Bedeutung haben, dass eines oder mehrere von den Elementen vorhanden sein können. Die Begriffe ”aufweisen”, ”enthalten” und ”haben” sollen einschließend sein und die Bedeutung haben, dass zusätzliche weitere Elemente außer den aufgelisteten Elementen vorhanden sein können. Ferner ist, obwohl der Begriff ”exemplarisch” hierin in Verbindung mit bestimmten Beispielen von Aspekten oder Ausführungsformen der vorliegend offenbarten Technik verwendet werden kann, nachvollziehbar, dass diese Beispiele veranschaulichender Natur sind und dass der Begriff ”exemplarisch” hierin nicht zur Angabe irgendeiner Präferenz oder Notwendigkeit in Bezug auf einen offenbarten Aspekt oder eine offenbarte Ausführungsform verwendet wird. Ferner erfolgt jede Verwendung der Begriffe ”oben”, ”unten”, ”über”, ”unter”, weiterer Positionsbegriffe und Varianten dieser Begriffe zur Vereinfachung und erfordert keine spezielle Orientierung der beschriebenen Komponenten.
  • Indem nun auf die Zeichnungen verwiesen und zunächst auf 1. Bezug genommen wird, ist dort ein exemplarisches prozessorbasierendes System 10 zur Verwendung in Verbindung mit der vorliegenden Technik dargestellt. In einer Ausführungsform ist das exemplarische prozessorbasierende System 10 ein Allzweckcomputer, wie z. B. ein Personal Computer, der dafür konfiguriert ist, eine Vielfalt von Software einschließlich Software, welche die gesamte oder einen Teil der vorliegenden Technik implementiert, ablaufen zu lassen. Alternativ kann in weiteren Ausführungsformen das prozessorbasierende System 10 unter anderem einen Mainframe-Computer, ein verteiltes Computersystem oder ein anwendungsspezifischer Computer oder eine Workstation sein, die dafür konfiguriert ist, die gesamte oder einen Teil der vorliegenden Technik auf der Basis spezialisierter Software und/oder Hardware, die als Teil des Systems bereitgestellt ist, zu implementieren. Ferner kann das prozessorbasierende System 10 entweder nur einen einzigen Prozessor oder mehrere Prozessoren enthalten, um die Implementierung der vorliegend offenbarten Funktionalität zu ermöglichen.
  • Im Wesentlichen enthält das exemplarische prozessorbasierende System 10 einen Mikrocontroller oder Mikroprozessor 12, wie z. B. eine zentrale Verarbeitungseinheit (CPU), welche verschiedene Routinen und Verarbeitungsfunktionen des Systems 10 ausführt. Beispielsweise kann der Mikroprozessor 12 verschiedene Betriebssysteminstruktionen sowie Softwareroutinen ausführen, die dafür konfiguriert sind, bestimmte Prozesse zu be wirken und die in einem Erzeugnis gespeichert sind oder bereitgestellt werden, das ein computerlesbares Medium, wie z. B. einen Speicher 14 (z. B. einen Direktzugriffsspeicher (RAM) eines Personal Computers) oder eine oder mehrere Massenspeichervorrichtungen 16 (z. B. ein internes oder externes Festplattenlaufwerk, eine Festkörperspeichervorrichtung, CD-ROM, DVD oder andere Speichervorrichtung) beinhalten kann. Zusätzlich verarbeitet der Mikroprozessor 12 Daten, die als Eingaben für verschiedene Routinen oder Softwareprogramme geliefert werden, wie z. B. Daten, die als Teil der vorliegenden Technik in computerbasierenden Implementierungen geliefert werden.
  • Derartige Daten können in dem Speicher 14 oder der Massenspeichervorrichtung 16 gespeichert oder bereitgestellt werden. Alternativ können derartige Daten an den Mikroprozessor 12 über eine oder mehrere Eingabevorrichtungen 18 geliefert werden. Wie der Fachmann auf diesem Gebiet nachvollziehen kann, können die Eingabevorrichtungen 18 manuelle Eingabevorrichtungen, wie z. B. eine Tastatur, eine Maus oder dergleichen, umfassen. Zusätzlich können die Eingabevorrichtungen 18 eine Netzwerkvorrichtung, wie z. B. eine drahtgebundene oder drahtlose Ethernetkarte, einen drahtlosen Netzwerkadapter oder irgendwelche verschiedenen Ports oder Vorrichtungen umfassen, die dafür konfiguriert sind, eine Kommunikation mit anderen Vorrichtungen über irgendein geeignetes Netzwerk 24, wie z. B. ein lokales Netzwerk oder das Internet, bereitzustellen. Über eine derartige Netzwerkvorrichtung kann das System 10 mit anderen vernetzten elektronischen Systemen entweder in der Nähe oder entfernt von dem System 10 Daten austauschen und kommunizieren. Es ist nachvollziehbar, dass das Netzwerk 24 verschiedene Komponenten enthalten kann, die eine Kommunikation ermöglichen, wie z. B. Switches, Router, Server oder weitere Computer, Netzwerkadapter, Kommunikationskabel usw.
  • Von dem Mikroprozessor 12 erzeugte Ergebnisse, wie z. B. die durch Verarbeitung von Daten gemäß einer oder mehreren gespeicherten Routinen erhaltene Ergebnisse, können an eine Bedienungsperson über eine oder mehrere Ausgabevorrichtungen, wie z. B. eine Anzeigevorrichtung 20 und/oder einen Drucker 22, geliefert werden. Auf der Basis der dargestellten oder ausgedruckten Ergebnisse kann eine Bedienungsperson eine zusätzliche oder alternative Verarbeitung anfordern oder zusätzliche oder alternative Daten beispielsweise über die Eingabevorrichtung 18 liefern. Wie der Fachmann auf diesem Gebiet nachvollziehen kann, kann eine Kommunikation zwischen den verschiedenen Komponenten des prozessorbasierenden Systems 10 typischerweise über einen Chipsatz und einen oder mehrere Busse oder Zwischenverbindungen erzielt werden, welche die Komponenten des Systems 10 elektrisch miteinander verbinden. Insbesondere kann in bestimmten Ausführungsformen der vorliegenden Technik das exemplarische prozessorbasierende System 10 dafür konfiguriert sein, Daten zu verarbeiten und Objekte in den Daten mit einem lernenden Algorithmus, wie nachstehend detaillierter diskutiert, zu klassifizieren.
  • Ein exemplarisches System 30 zum Erfassen und Verarbeiten von Daten gemäß einer Ausführungsform der vorliegenden Erfindung ist in 2 dargestellt. Das System 30 enthält ein oder mehrere Datenerfassungssysteme 32, die Daten von oder bezüglich eines Patienten 36 sammeln. Die Daten 34 können entweder Bilddaten oder Nicht-Bilddaten oder beides enthalten, welche unter anderem Meta-Daten einer elektronischen Patientenakte (EMR) enthalten können. Ferner können die Daten 34 von statischen oder dynamischen Datenquellen, einschließlich der Datenerfassungssysteme 32, empfangen werden und durch ein Datenverarbeitungssystem 38 verarbeitet werden. Das Datenverarbeitungssystem 38 kann das vorstehend beschriebene prozessorbasierende System 10 oder irgendwelche anderen oder zusätzlichen Komponenten oder Systeme, die eine Datenverarbeitung gemäß der vorliegend offenbarten Technik ermöglichen, enthalten.
  • Es ist nachvollziehbar, dass die Daten 34 in einer Datenbank 40 gespeichert werden können und dass das Datenverarbeitungssystem 38 die Daten 34 direkt von den Datenerfassungssystemen 32, aus der Datenbank 40 oder in irgendeiner anderen geeigneten Weise erhalten kann. Ferner kann das Datenverarbeitungssystem 38 auch zusätzliche Daten aus der Datenbank 40 zur Verarbeitung erhalten. Wie es nachstehend detaillierter beschrieben ist, kann die durch das Datenverarbeitungssystem 38 durchgeführte Verarbeitung eine Organisierung der Daten 34 oder zusätzlicher Daten in mehrere Objekte auf der Basis eines interessierenden Problems, eine Ableitung quelleninvarianter Merkmale aus den organisierten Daten, eine Klassifizierung der Objekte auf der Basis der quelleninvarianten Merkmale, eine Organisierung der Ergebnisse, um die Lösung des interessierenden Problems zu erleichtern, und eine Ausgabe einer bestimmten Anzeige der Ergebnisse beinhalten, wie es allgemein durch den Bericht 42 in 2 angezeigt ist. Es sollte auch angemerkt werden, dass das Datenverarbeitungssystem 38 ein prozessorbasierendes System wie das in 1 dargestellte sein und jede beliebige geeignete Kombination von Hardware und/oder Software enthalten kann, die dafür angepasst sind, die vorliegend offenbarte Funktonalität auszuführen. Ferner ist, obwohl bestimmte Ausführungsformen der vorliegenden Technik unter Bezugnahme auf medizinische Daten und Vorrichtungen erläutert sein können, anzumerken, dass die Nutzung der vorliegenden Technik bei nicht-medizinischen Daten und Systemen ebenfalls vorgesehen ist.
  • Obwohl zusätzliche Details des Betriebs eines Datenverarbeitungssystems 38 gemäß bestimmten Ausführungsformen nachstehend bereitgestellt werden, wird zuerst angemerkt, dass die vorliegend offenbarten Techniken auf Daten anwendbar sind, die aus einer breiten Palette von Datenquellen (z. B. Datenerfassungssystemen 32) erhalten werden und variierende Eigenschaften und Formate haben, die von der Art der Datenquelle abhängen können, aus welcher die Daten erhalten werden. In einigen Ausführungsformen kann ein exemplarisches Datenerfassungssystem 50 bestimmte typische Module oder Komponenten, wie sie allgemein in 3 dargestellt sind, enthalten. Diese Komponenten. können Sensoren oder Wandler 52 beinhalten, welche auf oder um einen Patienten herum platziert sein können, um bestimmte interessierende Parameter zu detektieren, die medizinische Ereignisse oder Zustände anzeigen können. Somit können die Sensoren von dem Körper oder Abschnitten des Körpers ausgehende elektrische Signale, von bestimmten Bewegungsarten (z. B. Puls, Atmung) erzeugten Druck, oder Parameter, wie Bewegung, Reaktionen auf Reize usw., detektieren. Die Sensoren 52 können auf Außenbereichen des Körpers platziert sein, können aber auch eine Platzierung innerhalb des Körpers, wie z. B. mittels Katheter, injizierter oder aufgenommener Einrichtungen, mit Sendern ausgerüsteter Kapseln usw., umfassen.
  • Die Sensoren erzeugen für die gemessenen Parameter repräsentative Signale oder Daten. Derartige Rohdaten können an ein Datenerfassungsmodul 54 übertragen werden. Das Datenerfassungsmodul kann abgetastete oder analoge Daten akquirieren und verschiedene anfängliche Operationen an den Daten, wie z. B. eine Filterung, Multiplexierung usw., durchführen. Die Daten können dann an ein Signalaufbereitungsmodul 56 übertragen werden, bei dem eine weitere Verarbeitung durchgeführt wird, wie z. B. eine zusätzliche Filterung, Analog/Digital-Umwandlung usw. Ein Verarbeitungsmodul 58 empfängt dann die Daten und führt Verarbeitungsfunktionen durch, welche eine einfache oder detaillierte Analyse der Daten beinhalten kann. Eine Anzeige/Benutzer-Schnittstelle 60 ermöglicht eine Beeinflussung, Betrachtung und Ausgabe der Daten in einem vom Benutzer gewünschten Format, wie z. B. als Kurven auf Bildschirmanzeigeeinrichtungen, als Hardcopy usw. Das Verarbeitungsmodul 58 kann auch die Daten zur Kennzeichnung so markieren oder analysieren, dass Anmerkungen, Begrenzungs- oder Bezeichnungsachsen oder Pfeile und weitere Zeichen auf der über die Schnittstelle 60 erzeugten Ausgabe erscheinen. Schließlich dient ein Archivmodul 62 dazu, die Daten entweder lokal innerhalb der Ressource oder an einer entfernten Stelle zu speichern. Das Archivierungsmodul kann auch eine Umformatierung oder Reorganisation der Daten, Kompression der Daten, Dekompression der Daten usw. ermöglichen. Die spezielle Konfiguration der in 3 dargestellten verschiedenen Module und Komponenten variiert natürlich abhängig von der Art der Ressource und, wenn ein Bildgebungssystem vorliegt, der damit verbundenen Modalität. Schließlich können, wie es allgemein mit dem Bezugszeichen 24 dargestellt ist, die in 3 dargestellten Module und Komponenten direkt oder indirekt mit externen Systemen und Ressourcen über ein Netzwerk verknüpft sein, welches die Übertragung von Daten 34 von dem Datenerfassungssystem 32 an das Datenverarbeitungssystem 38 oder die Datenbank 40 ermöglicht.
  • Es ist nachvollziehbar, dass die Datenerfassungssysteme 32 eine Anzahl von Nicht-Bildgebungssystemen enthalten können, die in der Lage sind, gewünschte Daten von einem Patienten zu sammeln. Beispielsweise können die Datenerfassungssysteme 32 unter anderem ein Elektroenzephalographie-(EEG)-System, ein Elektrokardiographie-(EKG)-System oder ein Elektromyographie-(EMG)-System, ein Elektroimpedanz-Tomographie-(EIT)-System, ein Elektronystagmographie-(ENG)-System, ein zum Sammeln von Nervenleitungsdaten eingerichtetes System oder irgendeine Kombination dieser Systeme enthalten. Die Datenerfassungssysteme können auch oder anstelle davon verschiedene Bildgebungsquel len, wie nachstehend unter Bezugnahme auf die 48 erläutert, enthalten.
  • Es ist nachvollziehbar, dass derartige Bildgebungssysteme zur Diagnose medizinischer Ereignisse und Zustände sowohl in weichem als auch in hartem Gewebe und zur Analyse von Strukturen und Funktionen spezifischer Anatomien eingesetzt werden können. Ferner stehen Bildgebungssysteme zur Verfügung, welche während chirurgischer Eingriffe verwendet werden können, um z. B. die Führung chirurgischer Komponenten durch Gebiete zu unterstützen, welche schwierig zugänglich oder nicht zu visualisieren sind. 4 stellt eine allgemeine Übersicht exemplarischer Bildgebungssysteme dar, und die anschließenden Figuren bieten detailliertere Einsichten in die Hauptsystemkomponenten spezifischer Modalitätssysteme.
  • Gemäß 4 enthält ein Bildgebungssystem 70 allgemein eine bestimmte Art einer Bildgebungsvorrichtung 72, welche Signale detektiert und die Signale in nutzbare Daten umwandelt. Wie es nachstehend vollständiger beschrieben ist, kann die Bildgebungsvorrichtung 72 gemäß verschiedenen physikalischen Prinzipien zur Erzeugung der Bilddaten arbeiten. Im Allgemeinen werden jedoch interessierende Bereiche in einem Patienten kennzeichnende Bilddaten durch die Bildgebungsvorrichtung entweder auf einem herkömmlichen Träger, wie z. B. einem fotographischen Film, oder in einem digitalen Medium erzeugt.
  • Die Bildgebungsvorrichtung arbeitet unter der Steuerung der Systemsteuerschaltung 74. Die Systemsteuerschaltung kann einen breiten Bereich von Schaltungen enthalten, wie z. B. Strahlungsquellen-Steuerschaltungen, Zeittaktschaltungen, Schaltungen für die Koordinierung der Datenerfassung in Verbindung mit Patienten- oder Tischbewegungen, Schaltungen für die Steuerung der Position der Strahlungsquellen oder anderer Quellen und/oder Detektoren usw. Die Bildgebungsvorrichtung 72 kann anschließend an die Erfassung der Bilddaten oder Signale die Signale z. B. zur Umwandlung in digitale Werte verarbeiten und gibt die Bilddaten an die Datenerfassungsschaltung 76 weiter. In dem Falle von analogen Medien, wie z. B. einem fotographischen Film, kann das Datenerfassungssystem im Wesentlichen Träger für den Film sowie eine Ausrüstung zur Entwicklung des Films und zur Erzeugung von Hartkopien enthalten, die anschließend digitalisiert werden können. Bei digitalen Systemen kann die Datenerfassungsschaltung 76 einen breiten Bereich von anfänglichen Verarbeitungsfunktionen, wie z. B. eine Anpassung digitaler Dynamikbereiche, eine Glättung oder Schärfung der Daten sowie eine Kompilierung von Datenströmen und Dateien nach Wunsch ausführen. Die Daten werden dann an eine Datenverarbeitungsschaltung 78 übertragen, in welcher eine zusätzliche Verarbeitung und Analyse durchgeführt wird. Für herkömmliche Medien, wie z. B. einen fotographischen Film, kann das Datenverarbeitungssystem eine Textinformation zu den Filmen hinzufügen sowie bestimmte Anmerkungen oder Patientenidentifizierungsinformationen anbringen. Für die verschiedenen verfügbaren digitalen Bildgebungssysteme führt die Datenverarbeitungsschaltung eine Grundanalyse der Daten, Ordnung von Daten, Schärfung, Glättung, Merkmalserkennung usw. durch.
  • Schließlich werden die Bilddaten an irgendeine Art einer Bedienerschnittstelle zur Betrachtung und Analyse weitergeleitet. Obwohl Operationen an den Bilddaten vor der Betrachtung durchgeführt werden können, ist die Bedienerschnittstelle 80 an einem gewissen Punkt für die Betrachtung rekonstruierter Bilder auf der Basis der gesammelten Bilddaten nützlich. Es sollte angemerkt werden, dass in dem Falle eines fotographischen Films Bilder typischerweise auf Lichtkästen oder ähnlichen Anzeigevorrichtungen angeordnet werden, um Radiologen oder behandelnden Ärzten zu ermöglichen, leichter Bildfolgen auszuwerten und zu kommentieren. Die Bilder können auch in Kurzzeit- oder Langzeitspeichervorrichtungen, die für die vorliegenden Zwecke als im Wesentlichen in der Schnittstelle 80 enthalten betrachtet werden, wie z. B. in Bilder archivierenden Kommunikationssystemen gespeichert werden. Die Bilddaten können auch an entfernte Stellen, wie z. B. an ein entfernt befindliches Datenverarbeitungssystem 38, über das Netzwerk 24 übertragen werden. Es sollte auch angemerkt werden, dass von einem allgemeinen Standpunkt aus die Bedienerschnittstelle 80 eine Steuerung des Bildgebungssystems typischerweise über eine Schnittstelle zu der Systemsteuerschaltung 74 bereitstellt. Ferner sollte auch angemerkt werden, dass mehr als nur eine einzige Bedienerschnittstelle 80 vorgesehen sein können. Demzufolge kann ein bildgebender Scanner oder eine Station eine Schnittstelle enthalten, welche die Regulierung der in der Bilddatenerfassungsprozedur beteiligten Parameter ermöglicht, während eine andere Bedienerschnittstelle für die Manipulation, Verbesserung und Betrachtung der resultierenden rekonstruierten Bilder vorgesehen sein kann.
  • Indem nun detailliertere Beispiele von Bildgebungssystemen, die in Verbindung mit der vorliegenden Technik eingesetzt werden können, behandelt werden, ist ein digitales Röntgensystem 84 allgemein in 5 dargestellt. Es sollte angemerkt werden, dass, obwohl auf ein digitales System in 5 Bezug genommen wird, natürlich auch herkömmliche Röntgensysteme bei der vorliegenden Technik verwendet werden können. Insbesondere können herkömmliche Röntgen-Systeme extrem nützliche Werkzeuge sowohl in der Form eines fotographischen Films als auch in der Form digitalisierter Bilddaten bereitstellen, die beispielsweise unter Nutzung eines Digitalisierers aus dem fotographischen Film extrahiert wurden.
  • Das in 5 dargestellte System 84 enthält eine Strahlungsquelle 86, typischerweise eine Röntgenröhre, die für die Emission eines Strahlbündels 88 ausgelegt ist. Die Strahlung kann typischerweise durch die Einstellung von Parametern der Quelle 86, wie z. B. der Art des Targets, des Eingangsleistungspegels und des Filtertyps, aufbereitet oder angepasst werden. Das resultierende Strahlungsbündel 88 wird typischerweise durch einen Kollimator 90 geleitet, welcher die Ausdehnung und die Form des auf den Patienten 36 gerichteten Strahlbündels bestimmt. Ein Abschnitt des Patienten 36 ist in dem Pfad des Strahlbündels 88 platziert, und das Strahlbündel trifft auf einen digitalen Detektor 92 auf.
  • Der Detektor 92, welcher typischerweise eine Matrix von Pixeln enthält, codiert die Intensitäten der auf verschiedene Stellen in der Matrix auftreffenden Strahlen. Ein Szintillator wandelt die Hochenergie-Röntgenstrahlung in Photonen niedrigerer Energie um, welche von Photodioden in dem Detektor detektiert werden. Die Röntgenstrahlung wird durch Gewebe in dem Patienten abgeschwächt, so dass die Pixel unterschiedliche Abschwächungspegel identifizieren, die zu verschiedenen Intensitätspegeln führen, welche die Basis für ein letztlich rekonstruiertes Bild ergeben.
  • Die Steuerschaltung und Datenerfassungsschaltung sind zur Steuerung des Bilderfassungsprozesses und zur Detektion und Verarbeitung der resultierenden Signale vorgesehen. Insbesondere ist in der Darstellung von 5 eine Quellensteuerung 94 für die Einstelloperation der Strahlungsquelle 86 vorgesehen. Eine weitere Steuerschaltung kann natürlich für steuerbare Aspekte des Systems, wie z. B. eine Tischposition, eine Strahlungsquellenposition usw., vorgesehen sein. Die Datenerfassungsschaltung 96 ist mit dem Detektor 92 gekoppelt und ermöglicht das Auslesen der Ladung an den Photodetektoren an schließend an eine Bestrahlung. Im Allgemeinen wird eine Ladung auf den Photodetektoren durch das Auftreffen von Strahlung verringert, und die Photodetektoren werden sequentielll wiederaufgeladen, um die Verringerung zu messen. Die Ausleseschaltung kann eine Schaltung zum systematischen Auslesen von Zeilen und Spalten der Photodetektoren entsprechend den Pixelstellen der Bildmatrix enthalten. Die resultierenden Signale werden dann durch die Datenerfassungsschaltung 96 digitalisiert und an die Datenverarbeitungsschaltung 98 weitergeleitet.
  • Die Datenverarbeitungsschaltung 98 kann eine Reihe von Operationen, einschließlich einer Anpassung von Nullpunktverschiebungen, Verstärkungen und dergleichen, an den digitalen Daten, sowie verschiedene Bildverbesserungsfunktionen, durchführen. Die resultierenden Daten werden dann an eine Benutzerschnittstelle, das Datenverarbeitungssystem 38 oder eine Speichervorrichtung zur Kurzzeit- oder Langzeitspeicherung weitergeleitet. Die auf der Basis der Daten rekonstruierten Bilder können auf der Benutzerschnittstelle angezeigt werden oder können an andere Stellen beispielsweise über ein Netzwerk 24 zur Betrachtung oder zusätzlichen Verarbeitung weitergeleitet werden. Auch können digitale Daten als Basis für die Belichtung und das Drucken rekonstruierter Bilder auf einem herkömmlichen Hardcopy-Medium, wie z. B. einem fotographischen Film, verwendet werden.
  • 6 zeigt eine allgemeine schematische Darstellung eines Magnetresonanz-Bildgebungssystems 102. Das System enthält einen Scanner 104, in welchem ein Patient zur Erfassung von Bilddaten positioniert ist. Der Scanner 104 enthält einen Primärmagnet zum Erzeugen eines Magnetfelds, welches gyromagnetische Materialien in dem Körper eines Patienten 36 beeinflusst. Da das gyromagnetische Material, typischerweise Wasser und Stoffwechselprodukte, versucht, sich zu dem magnetischen Feld auszurichten, erzeugen Gradientenspulen zusätzliche magnetische Felder, welche in Bezug zueinander orthogonal orientiert sind. Die Gradientenfelder wählen effektiv eine Gewebescheibe bzw. -schicht durch den Patienten zur Bildgebung aus und codieren die gyromagnetischen Materialien in der Scheibe bzw. Schicht gemäß der Phase und Frequenz ihrer Drehung. Eine Hochfrequenz-(RF)-Spule in dem Scanner erzeugt Hochfrequenzimpulse zum Anregen des gyromagnetischen Materials, und sobald das Material versucht, sich selbst zu den magnetischen Feldern wieder auszurichten, werden magnetische Resonanzsignale ausgesandt, welche von der Hochfrequenzspule gesammelt werden.
  • Der Scanner 104 ist mit der Gradientenspulen-Steuerschaltung 106 und mit einer RF-Spulen-Steuerschaltung 108 gekoppelt. Die Gradientenspulen-Steuerschaltung ermöglicht die Steuerung verschiedener Impulssequenzen, welche Bildgebungs- und Untersuchungsmethodiken definieren, die zum Erzeugen der Bilddaten genutzt werden. Mittels der Gradientenspulen-Steuerschaltung 106 implementierte Impulssequenzbeschreibungen sind dafür ausgelegt, spezifische Schichten und Anatomien abzubilden, sowie eine spezifische Bildgebung von sich bewegendem Gewebe, wie z. B. Blut und Entschärfungsmaterialien, zu ermöglichen. Die Impulssequenzen können eine sequentielle Bildgebung von mehreren Schichten beispielsweise zur Analyse verschiedener Organe oder Merkmale sowie für eine dreidimensionale Bildrekonstruktion ermöglichen. Die RF-Spulen-Steuerschaltung 108 ermöglicht das Anlegen von Impulsen an die RF-Anregungsspule und dient zum Empfangen und teilweisen Verarbeiten der resultierenden detektierten MR-Signale. Es sollte angemerkt werden, dass ein Bereich von RF-Spulen-Strukturen für spezifische Anatomien und Zwecke verwendet werden kann. Zusätzlich kann nur eine einzelne RF-Spule zur Übertragung der RF-Impulse verwen det werden, während eine andere Spule zum Empfangen der resultierenden Signale dient.
  • Die Gradienten- und RF-Spulen-Steuerschaltung arbeiten unter der Führung einer Systemsteuerung 110. Die Systemsteuerung implementiert Impulssequenzbeschreibungen, welche den Bilddaten-Erfassungsprozess definieren. Die Systemsteuerung ermöglicht im Allgemeinen ein gewisses Maß an Anpassung oder Konfiguration der Untersuchungssequenz mittels einer Bedienerschnittstelle 80.
  • Eine Datenverarbeitungsschaltung 112 empfängt die detektierten MR-Signale und verarbeitet die Signale, um Daten zur Rekonstruktion zu gewinnen. Im Wesentlichen digitalisiert die Datenverarbeitungsschaltung 112 die empfangenen Signale und führt eine zweidimensionale schnelle Fourier-Transformation an den Signalen aus, um spezifische Stellen in der ausgewählten Scheibe bzw. Schicht zu decodieren, von welcher die MR-Signale stammen. Die resultierenden Informationen liefern eine Anzeige der Intensität der MR-Signale, die an verschiedenen Stellen oder Volumenelementen (Voxeln) in der Scheibe bzw. Schicht entstehen. Jedes Voxel kann dann zu einer Pixelintensität in den Bilddaten zur Rekonstruktion umgewandelt werden. Die Datenverarbeitungsschaltung 112 kann einen breiten Bereich weiterer Funktionen, wie z. B. zur Bildverbesserung, dynamischen Bereichsanpassung, Intensitätsanpassung, Glättung, Schärfung usw., durchführen. Die resultierenden verarbeiteten Bilddaten werden typischerweise an eine Bedienerschnittstelle zur Betrachtung sowie an einen Kurzzeit- oder Langzeitspeicher weitergeleitet oder können zur zusätzlichen Verarbeitung an ein Datenverarbeitungssystem weitergeleitet werden. Wie in dem Falle der vorgenannten Bildgebungssysteme können die MR-Bilddaten lokal am Ort eines Scanners betrachtet oder an entfernt liegende Stellen sowohl innerhalb einer Institution als auch entfernt von einer Institution über das Netzwerk 24 übertragen werden.
  • 7 stellt die Grundkomponenten eines Computer-Tomographie-(CT)-Bildgebungssystems dar, das als ein Datenerfassungssystem 32 gemäß einer Ausführungsform verwendet werden kann. Das CT-Bildgebungssystem 116 enthält eine Strahlungsquelle 118, welche konfiguriert ist, um eine Röntgenstrahlung in einem fächerförmigen Strahlbündel 120 zu erzeugen. Ein Kollimator 122 definiert die Grenzen des Strahlungsbündels. Das Strahlungsbündel 120 wird auf einen gekrümmten Detektor 124 gerichtet, der aus einer Anordnung von Photodioden und Transistoren besteht, die es ermöglichen, Ladungen der Dioden auszulesen, die durch das Auftreffen der Strahlung aus der Quelle 118 verringert werden. Die Strahlungsquelle, der Kollimator und der Detektor sind auf einer rotierenden Gantry 126 montiert, was deren rasche Drehung (beispielsweise bei Drehzahlen von zwei Umdrehungen pro Sekunde) ermöglicht.
  • Während einer Untersuchungssequenz werden, während die Quelle und der Detektor gedreht werden, eine Reihe von Ansichts-Frames an um einen in der Gantry positionierten Patienten 36 herum im Winkel versetzten Stellen erzeugt. Eine Anzahl von Ansichts-Frames (zwischen 500 und 1000) werden für jede Umdrehung gesammelt, und eine Anzahl von Umdrehungen kann beispielsweise in einem spiralförmigen Muster ausgeführt werden, während der Patient langsam entlang der axialen Richtung des Systems bewegt wird. Für jeden Ansichts-Frame werden Daten von individuellen Pixelstellen des Detektors gesammelt, um ein großes Volumen diskreter Daten zu erzeugen. Eine Quellensteuerung 128 steuert den Betrieb der Strahlungsquelle 118, während eine Gantry/Tisch-Steuerung 130 die Drehung der Gantry regelt und eine Bewegung des Patienten steuert.
  • Von dem Detektor gesammelte Daten werden digitalisiert und an eine Datenerfassungsschaltung 132 weitergeleitet. Die Datenerfassungsschaltung kann eine anfängliche Verarbeitung der Daten beispielsweise zur Erzeugung einer Datendatei durchführen. Die Datendatei kann weitere nützliche Informationen, wie z. B. bezüglich der Herzzyklen, Positionen in dem System zu spezifischen Zeitpunkten usw., enthalten. Die Datenverarbeitungsschaltung 134 empfängt dann die Daten und führt eine breite Reihe von Datenmanipulationen und Berechnungen durch.
  • Im Wesentlichen können Daten aus dem CT-Scanner in einem Bereich auf verschiedene Arten rekonstruiert werden. Beispielsweise können Ansichts-Frames für eine volle 360°-Umdrehung verwendet werden, um ein Bild einer Schicht oder Scheibe durch den Patienten zu konstruieren. Jedoch können, da ein Teil der Information typischerweise redundant ist (die Bildgebung derselben Anatomien auf gegenüberliegenden Seiten eines Patienten), reduzierte Datensätze mit Informationen für Ansichts-Frames, die über 180° plus dem Winkel des Strahlungsfächers erfasst wurden, rekonstruiert werden. Alternativ werden Multisektorrekonstruktionen eingesetzt, in welchen dieselbe Anzahl von Ansichts-Frames von Abschnitten mehrerer Rotationszyklen rings um den Patienten erfasst werden. Eine Rekonstruktion der Daten in nutzbare Bilder beinhaltet dann Berechnungen von Projektionen der Strahlung auf den Detektor und eine Identifizierung von relativen Abschwächungen der Daten durch spezifische Stellen in dem Patienten. Die rohen, die teilweise verarbeiteten und die vollständig verarbeiteten Daten können zur Nachbearbeitung, Speicherung und Bildrekonstruktion weitergeleitet werden. Die Daten können für eine Bedienungsperson beispielsweise an einer Bedienerschnittstelle 80 sofort verfügbar sein und können über eine Netzwerkverbindung 24 fernübertragen werden.
  • 8 stellt bestimmte Basiskomponenten eines Positronen-Emissions-Tomographie-(PET)-Bildgebungssystems 140 dar. Es ist jedoch nachvollziehbar, dass die dargestellten Komponenten auch denen eines Einzelphotonen-Emissions-Computertomographie-(SPECT)-Systems entsprechen könnten, welches ebenfalls als ein Datenerfassungssystem 32 verwendet werden kann. Das PET-Bildgebungssystem 140 enthält ein Modul 142 zur radioaktiven Markierung, welches manchmal als ein Zyklotron bezeichnet wird. Das Zyklotron ist eingerichtet, um bestimmte indizierte oder radioaktiv markierte Materialien, wie z. B. Glukose, mit einer radioaktiven Substanz herzustellen. Die radioaktive Substanz wird dann in einen Patienten 36 injiziert, wie dies bei dem Bezugszeichen 144 angezeigt ist. Der Patient wird dann in einen PET-Scanner 146 platziert. Der Scanner detektiert Emissionen aus der indizierten Substanz, wenn deren Radioaktivität im Körper des Patienten abklingt. Insbesondere werden manchmal als positive Elektronen bezeichnete Positronen von dem Material emittiert, wenn der Gehalt des Radionuklids abklingt. Die Positronen wandern über kurze Strecken und kombinieren gegebenenfalls mit Elektronen unter einer resultierenden Emission eines Paares von Gammastrahlen. Photovervielfacher-Szintillator-Detektoren innerhalb des Scanners detektieren die Gammastrahlen und erzeugen Signale auf der Basis der detektierten Strahlung.
  • Der Scanner 146 arbeitet unter der Steuerung der Scannersteuerschaltung 148, die selbst durch eine Benutzerschnittstelle 80 gesteuert wird. In den meisten PET-Scans wird der gesamte Körper des Patienten gescannt, und die aus der Gammastrahlung detektierten Signale werden an eine Datenerfassungsschaltung 150 weitergeleitet. Die spezifische Intensität und Lage der Strahlung kann durch die Datenverarbeitungsschaltung 152 identifiziert werden, und es können rekonstruierte Bilder auf der Bedienerschnittstelle 80 formuliert und betrachtet werden, oder die rohen oder verarbeiteten Daten können für eine spätere Bildverbesserung, -analyse und -betrachtung gespeichert werden. Die Bilder oder Bilddaten können dann an entfernte Stellen über eine Verbindung zu dem Netzwerk 24 übertragen werden.
  • PET-Scans werden typischerweise zur Erkennung von Krebs eingesetzt und um die Auswirkungen einer Krebstherapie zu überprüfen. Die Scans können auch zur Ermittlung eines Blutstroms, wie z. B. zu dem Herzen, verwendet werden und können zur Bewertung von Anzeichen für eine Koronararterienerkrankung genutzt werden. In Kombination mit einer myokardialen Stoffwechseluntersuchung können PET-Scans zur Unterscheidung eines nicht-funktionierenden Herzmuskels von einem Herzmuskel eingesetzt werden, der von einer Prozedur, wie z. B. einer angioplastischen oder Koronararterienbypasschirurgie, um einen angemessenen Blutstrom einzurichten, profitieren würde. PET-Scans des Gehirns können ferner eingesetzt werden, um Patienten mit Gedächtnisstörungen unbestimmter Ursachen zu beurteilen, um die Möglichkeit des Vorhandenseins von Gehirntumoren abzuschätzen und um bestimmte Ursachen für Anfallsleiden zu analysieren. In diesen verschiedenen Prozeduren wird das PET-Bild auf der Basis der unterschiedlichen Aufnahme der indizierten Materialien durch verschiedene Gewebearten erzeugt.
  • Obwohl bestimmte Bildgebungssysteme vorstehend für den Zweck der Erläuterung beschrieben worden sind, sollte angemerkt werden, dass das vorliegend offenbarte Datenverarbeitungssystem 38 Daten von zusätzlichen und/oder speziellen Bildgebungssystemen, wie z. B. einem Fluorographie-System, einem Mammographie-System, einem Sonographie-System, einem Thermographie-System, weiteren nuklearmedizinischen Systemen oder einen thermoakustischen System, verarbeiten können, um nur einige wenige Möglichkeiten zu nennen. Zusätzlich kann, wie vor stehend angemerkt, das Datenverarbeitungssystem 38 auch zusätzliche Daten, die von anderen Nicht-Bildgebungsdatenquellen erhalten werden, empfangen und verarbeiten, einschließlich derjenigen, die in voller Übereinstimmung mit der vorliegenden Technik aus einer Datenbank oder einer Computer-Arbeitsstation erhalten werden.
  • Eine Ausführungsform der vorliegend offenbarten Technik kann besser unter Bezugnahme auf 9 verstanden werden, welche eine Reihe von Schritten eines exemplarischen Datenverarbeitungsverfahrens 160 darstellt. Wenn Daten empfangen werden, wie z. B. durch das Datenverarbeitungssystem 38, werden die Daten in einem Schritt 162 organisiert. Wie vorstehend erläutert, können die empfangenen Daten eines oder beides von Bilddaten 164 und/oder Nicht-Bilddaten 166 beinhalten, die aus einer breiten Palette von Datenerfassungssystemen 32 oder Datenbanken, wie z. B. der Datenbank 40, erhalten werden. In einigen Ausführungsformen können die Nicht-Bilddaten parametrische Daten, nicht-parametrische Daten (z. B. eine Fehlerereignisaufzeichnung) oder EMR-Meta-Daten enthalten. In einer Ausführungsform kann die Organisierung der Daten eine Indexierung von Text- und Bildinformation, eine Anordnung dieser als Vektoren und eine Zuordnung der Information zu derartigen Vektoren beinhalten.
  • Das Verfahren 160 beinhaltet auch einen Schritt 168 zur Identifizierung quelleninvarianter Merkmale in den organisierten Daten. Wie vorstehend angemerkt, können aus mehreren unterschiedlichen Erfassungssystemen gesammelte Daten unterschiedlicher Art sein oder unterschiedliche Formate auf der Basis des Typs des die Daten erzeugenden Erfassungssystems haben. Ferner sind lernende Automaten bzw. Maschinen und lernende Algorithmen oft dafür angepasst, spezifische Datenarten in einem spezifischen Format zu empfangen, wie z. B. dem von nur einem einzigen Typ eines Datenerfassungssystems (z. B. einem CT-System, einem MRI-System oder dergleichen). In verschiedenen Ausführungsformen der vorliegenden Erfindung kann jedoch das Datenverarbeitungssystem vorteilhafterweise die Daten vorverarbeiten, um Merkmale in den Daten zu identifizieren, die interessierende Objekte (z. B. einen Knoten) in einer quelleninvarianten Weise beschreiben. Derartige Merkmale können, sind jedoch nicht darauf beschränkt, geometrische Merkmale (d. h., Gestaltsmerkmale), Textmerkmale, Objektdichte oder dergleichen beinhalten. Beispielsweise kann in einem Szenario, in welchem das interessierende Problem eine Tumoridentifizierung ist und eines der Merkmale eines lernenden Algorithmus eine Kugel mit einem Durchmesser in einem bestimmten Größenbereich ist, das Datenverarbeitungssystem Bilddaten von zwei unterschiedlichen Datenerfassungssystemen, die unterschiedliche Bildauflösungsfähigkeiten haben, und die unterschiedlich verarbeitet werden können, erhalten, um quelleninvariante Datenmerkmale abzuleiten.
  • Sobald quelleninvariante Merkmale eines interessierenden Objektes identifiziert sind, fährt das exemplarische Verfahren 160 mit der Klassifizierung der Objekte im Schritt 170 fort. In einigen Ausführungsformen werden die Objekte durch die Verwendung irgendeines geeigneten lernenden Algorithmus oder Automaten klassifiziert. Ein Beispiel eines lernenden Algorithmus zur Klassifizierung ist ein Stützvektorautomat. Wie man nachvollziehen kann, sind Stützvektorautomaten (SVMs) ein Satz verwandter überwachter Lernverfahren, die zur Klassifizierung und Regression genutzt werden und zu einer Familie verallgemeinerter linearer Klassifikatoren gehören. SVMs können auch als ein Spezialfall einer Tikhonov-Regularisierung angesehen werden. SVMs können gleichzeitig den empirischen Klassifizierungsfehler minimieren und den geometrischen Ab stand maximieren und können demzufolge auch als Maximalabstands-Klassifikatoren bekannt sein.
  • Es wird jedoch nochmals angemerkt, dass derartige lernende Algorithmen und Automaten bzw. Maschinen typischerweise auf der Basis spezifischer Datentypen, wie z. B. Daten mit einem gemeinsamen Format aus nur einer einzigen Datenquelle oder ähnlichen Datenquellen trainiert, getestet und validiert werden. Somit müssten, um den lernenden Algorithmus oder Automaten mit einem anderen Datentyp zu nutzen als dem, der bei dem ursprünglichen Training, Test und der ursprünglichen Validierung des Algorithmus verwendet wurde, der lernende Algorithmus und Automat typischerweise neu trainiert, neu getestet und auf der Basis eines neuen Satzes von Trainingsdaten neu validiert werden. In einigen Ausführungsformen der vorliegend offenbarten Technik können jedoch Datenmerkmale vorverarbeitet werden, um derartige Merkmale in einer quelleninvarianten Weise zu beschreiben, so dass der lernende Algorithmus Objekte auf der Basis quelleninvarianter Merkmale klassifizieren kann, die aus Daten erhalten wurden, die unterschiedliche Eigenschaften aufweisen und die von unterschiedlichen Datenquellen aufgenommen wurden. Demzufolge ermöglicht die Identifizierung von Erfassungsquellen-invarianten Merkmalen in den Daten eine breite Anwendung eines lernenden Klassifizierungsalgorithmus auf eine Vielfalt von Datentypen aus unterschiedlichen Quellen, und sie kann die Notwendigkeit eines erneuten Trainings, erneuten Tests und einer erneuten Validierung des Algorithmus bei Änderungen der Datenerfassungsquellen oder Technologien vermeiden. Zusätzlich basiert in einigen Ausführungsformen die Klassifizierung der Objekte nicht nur auf Bilddaten oder quelleninvarianten Merkmalen derartiger Bilddaten, sondern auch auf Nicht-Bilddaten, die durch das Datenverarbeitungssystem 38 erhalten werden. Beispielsweise kann in einer Ausführungsform die Klassifizierung sowohl auf Bilddaten als auch auf Nicht- Bilddaten, wie z. B. Meta-Daten aus einer elektronischen Patientenakte, basieren. Auch die Ergebnisse dieses Klassifizierungsprozesses können im Schritt 172 vor irgendeiner die Ergebnisse anzeigenden Ausgabe im Schritt 174 organisiert werden, wie es nachstehend detaillierter unter Bezugnahme auf 11 erläutert ist.
  • Verschiedene Komponenten zur Ausführung der vorstehend beschriebenen Funktionalität sind in dem Blockdiagramm 178 von 10 gemäß einer Ausführungsform der vorliegenden Erfindung dargestellt. Insbesondere kann ein Datenverarbeitungssystem ein Dateneingabemodul 180 zur Aufnahme verschiedener Daten, die entweder Bilddaten 164 oder Nicht-Bilddaten 166 oder beides umfassen, enthalten. Es wird ferner angemerkt, dass das Dateneingabemodul 180 dafür konfiguriert sein kann, eine automatische Sammlung oder Aufnahme derartiger Daten über ein Netzwerk zu ermöglichen, eine Benutzereingabe bestimmter Datentypen ermöglichen kann oder anderweitig einen Empfang von Daten in irgendeiner anderen geeigneten Weise ermöglichen kann. Das Datenverarbeitungssystem kann auch ein Datenorganisationsmodul 182 und ein Vorverarbeitungsmodul 184 enthalten, welche dafür konfiguriert sind, die Daten zu organisieren und quelleninvariante Merkmale in den Daten zu identifizieren, wie es im Wesentlichen vorstehend beschrieben ist. Zusätzlich kann das Datenverarbeitungssystem ein Objektklassifizierungsmodul 186 und ein Ausgabemodul 188 enthalten, die im Wesentlichen dafür konfiguriert sind, Objekte der Daten zu klassifizieren, die Ergebnisse in einer gewünschten Weise zu organisieren und eine Anzeige derartiger Ergebnisse auszugeben. Es sollte angemerkt werden, dass die allgemein dargestellten Module in jeder geeigneten Hardware verkörpert sein können, um die vorliegend offenbarte Funktonalität auszuführen, und auch oder stattdessen Softwareroutinen enthalten können, die in einem Erzeugnis (z. B. einer Compact Disc, einem Festplattenlaufwerk, einem Flash-Speicher, einem RAM oder dergleichen) gespeichert und zur Ausführung durch einen Prozessor zum Bewirken der Durchführung der hierin beschriebenen Funktionalität konfiguriert sind.
  • Verständlicherweise können mehrere Leute an den Ergebnissen des Klassifizierungsprozesses interessiert sein, können aber unterschiedliche Detailierungssprache bezüglich derartiger Ergebnisse wünschen. Demzufolge werden in einer im Wesentlichen in der Blockdarstellung 192 von 11 dargestellten Ausführungsform die Klassifizierungsergebnisse in einer hierarchischen Weise organisiert, die eine Verteilung der Ergebnisse an verschiedene Personen mit einem unterschiedlichen Detailgrad ermöglicht. In der vorliegend dargestellten Ausführungsform werden anfängliche Klassifizierungsergebnisse 194, welche typischerweise in der Form von numerischen und/oder Text-Formaten vorliegen können, indexiert, um Ergebnisse 196 zu erzeugen, die eine weitere Analyse oder Nachverarbeitung ermöglichen, um jede gewünschte graphische Ausgabe 198 oder Tonausgabe 200, wie z. B. einen Alarm, zu erzeugen, der eine Anzeige der Ergebnisse liefert. In einigen Ausführungsformen kann die Ausgabe von Ergebnissen im Schritt 174 (9) die Bereitstellung der graphischen Ausgabe 198 oder der Audioausgabe 200 beinhalten oder vollständig daraus bestehen. Die Ausgaben 198 und 200 können nach einer derartigen Nachbearbeitung gespeichert werden, und die graphische Ausgabe 198 und/oder Audioausgabe 200 können an eine oder mehrere gewünschte Geräte oder Werkzeuge, einschließlich eines tragbaren Gerätes 202, einer Computer-Station 204, automatisierter Werkzeuge 206 oder dergleichen, übertragen werden. Es ist nachvollziehbar, dass die Ausgaben 198 und 200 an derartige Geräte oder Werkzeuge auf eine beliebige geeignete Weise, wie z. B. über eine drahtgebundene Kommunikation oder eine drahtlose Kommunikation, geliefert werden können. Zusätzlich können die indexierten Er gebnisse 196 oder sogar die anfänglichen Ergebnisse 194 an das tragbare Gerät 202, die Computer-Station 204 oder, falls gewünscht, an die automatisierten Werkzeuge 206 geliefert werden. Beispielsweise kann in einer Ausführungsform das tragbare Gerät 202 die graphische Ausgabe 198 oder die Tonausgabe 200 empfangen, und ein Benutzer einer derartigen Vorrichtung kann einen Zugriff auf die anfänglichen Ergebnisse 194 oder die indexierten Ergebnisse 196 über die tragbare Vorrichtung 202 auswählen.
  • Ein exemplarisches Automatentrainings- und Validierungsverfahren 210 ist allgemein in 12 gemäß einer Ausführungsform der vorliegenden Erfindung dargestellt. Das Verfahren 210 beginnt mit der Bereitstellung einer anfänglichen Problemdefinition im Schritt 212. Beispielsweise kann in einer Ausführungsform ein computerunterstütztes Volumenauslese-(VCAR)-System verwendet werden, um ein Detektionsproblem auf der Basis einer anfänglichen Problemdefinition zu lösen und um kugelartige Formen in medizinischen Daten zu detektieren. Es können Ergebnisse aus einem oder mehreren VCAR-Systemen oder anderen Datenerfassungssystemen in einem Schritt 214 gesammelt und zur Revidierung der Problemdefinition im Schritt 216 verwendet werden. Wenn eine weitere Problemdefinitionsrevision gewünscht ist, können zusätzliche Daten auf der Basis einer revidierten Problemdefinition gesammelt werden, wie es im Wesentlichen durch den Entscheidungsblock 218 und den Schritt 220 dargestellt ist. Sobald die Problemdefinition ausreichend revidiert wurde, können die Daten dazu genutzt werden, um einen lernenden Automaten oder Algorithmus in den Schritten 222 bzw. 224 zu trainieren bzw. zu testen. Das Training und der Test können ein iterativer Prozess sein, wie er allgemein durch den Entscheidungsblock 226 dargestellt ist, und sobald ein derartiger Test erfolgreich abgeschlossen ist, kann der lernende Automat im Schritt 228 validiert werden. Es ist anzu merken, dass die Fähigkeit eines lernenden Algorithmus, eine genaue Diagnose auf der Basis verarbeiteter Daten zu geben, signifikant von einer geeigneten Problemdefinition sowie von ausreichendem Training und Testen des lernenden Algorithmus abhängen kann. Ferner ist anzumerken, dass das Auffinden von mit einem speziellen Diagnoseergebnis verknüpften Merkmalen durch die Sammlung von Felddaten bezüglich der Objektdetektion und klinischer Ergebnisse in Bezug auf derartige Objekte ermöglicht werden kann und dass in einer Ausführungsform derartige Detektions- und Ergebnisdaten genutzt werden, um die Problemdefinition zu verfeinern und einen Lernalgorithmus, wie z. B. den vorstehend erläuterten Klassifizierungsalgorithmus, zu trainieren, zu testen und zu validieren.
  • Schließlich ist auf der Basis des Vorstehenden nachvollziehbar, dass die vorliegende Technik eine signifikante Unabhängigkeit bei den zum Trainieren des lernenden Automaten angewendeten Schritten, einschließlich einer Datenunabhängigkeit, Merkmalsunabhängigkeit und algorithmischen Unabhängigkeit, zulässt. Insbesondere stellt die Datenunabhängigkeit die Flexibilitäten gegenüber Änderungen der Arten integrierter Daten bereit, ohne die Erzeugung von für den Lernprozess genutzten quelleninvarianten Merkmalen zu beeinflussen. Ferner stellt die Merkmals-Unabhängigkeit eine Flexibilität bei der Erzeugung von quelleninvarianten Prozessen ohne Beeinflussung der Auswahl spezieller lernender Algorithmen bereit und ermöglicht somit der vorliegenden Technik, mehrere Algorithmen während des Lernprozesses einzusetzen. Des Weiteren stellt die algorithmische Unabhängigkeit die Flexibilitäten zum Auswählen von und Arbeiten mit vielfältigen lernenden Algorithmen ohne Beeinflussung der Ergebnisse und letztlich der aus diesen lernenden Algorithmen erzeugten Kenntnis bereit. Demzufolge kann die durch die vorliegende Technik gebotene Unabhängigkeit zu einem Lernprozess führen, der flexibler, besser anpassbar, ef fizienter und leistungsfähiger als frühere Lernprozesse ist. Ferner kann die Identifizierung und Verwendung von bezüglich des Erfassungssystems invarianten Merkmalen die Notwendigkeit, einen lernenden Klassifizierungsalgorithmus aufgrund unterschiedlicher Datenquellen oder technologischer Änderungen neu zu trainieren, reduzieren oder eliminieren. Des Weiteren ermöglicht die vorliegende Technik in einer Ausführungsform eine Klassifizierung auf der Basis von sowohl bezüglich des Erfassungssystems invarianten Merkmalen als auch aktiven EMR-Meta-Daten, so dass die Klassifizierung von Objekten auf ganzheitlichen Betrachtungen basiert.
  • Obwohl nur bestimmte Merkmale der Erfindung hierin dargestellt und beschrieben sind, werden viele Modifikationen und Änderungen für den Fachmann auf diesem Gebiet ersichtlich sein. Es dürfte sich daher verstehen, dass die beigefügten Ansprüche alle derartigen Modifikationen und Änderungen, soweit sie in den tatsächlichen Erfindungsgedanken der Erfindung fallen, abdecken sollen.
  • Es wird eine Datenverarbeitungstechnik bereitgestellt. In einer Ausführungsform beinhaltet ein auf einem Computer implementiertes Verfahren eine Aufnahme von Bilddaten 164 aus einem Bildgebungssystem und eine Organisation 172 der Bilddaten in mehrere interessierende Objekte. Das Verfahren kann auch eine Identifizierung 168 quelleninvarianter Merkmale der mehreren interessierenden Objekte und eine Klassifizierung 170 der mehreren interessierenden Objekte mittels eines lernenden Algorithmus in Kategorien, die wenigstens teilweise auf den identifizierten quelleninvarianten Merkmalen basieren, beinhalten. Ferner kann das Verfahren eine Ausgabe 174 eines Berichts basierend wenigstens zum Teil auf Daten beinhalten, die aus der Klassifizierung eines oder mehrerer der mehreren interessie renden Objekte abgeleitet werden. Zusätzliche Verfahren, Systeme und Vorrichtungen sind ebenfalls offenbart.
  • 10
    System
    12
    Mikroprozessor
    14
    Speicher
    16
    Speichervorrichtung
    18
    Eingabevorrichtung
    20
    Anzeigevorrichtung
    22
    Drucker
    24
    Netzwerk
    26
    28
    30
    System
    32
    Datenerfassungssystem
    34
    Daten
    36
    Patient
    38
    Datenverarbeitungssystem
    40
    Datenbank
    42
    Bericht
    44
    46
    48
    50
    Datenerfassungssystem
    52
    Sensoren
    54
    Datenerfassungsmodul
    56
    Signalaufbereitungsmodul
    58
    Verarbeitungsmodul
    60
    Anzeige/Benutzer-Schnittstelle
    62
    Archivmodul
    64
    66
    68
    70
    Bildgebungssystem
    72
    Bildgebungsvorrichtung
    74
    Systemsteuerschaltung
    76
    Datenerfassungsschaltung
    78
    Datenverarbeitungsschaltung
    80
    Schnittstelle
    82
    84
    System
    86
    Strahlungsquelle
    88
    Strahlbündel
    90
    Kollimator
    92
    Detektor
    94
    Quellensteuerung
    96
    Datenerfassungsschaltung
    98
    Datenverarbeitungsschaltung
    100
    102
    System
    104
    Scanner
    106
    Gradientenspulen-Steuerschaltung
    108
    RF-Spulen-Steuerschaltung
    110
    Steuereinrichtung
    112
    Datenverarbeitungsschaltung
    114
    116
    System
    118
    Strahlungsquelle
    120
    Strahlbündel
    122
    Kollimator
    124
    Detektor
    126
    Gantry
    128
    Quellensteuerung
    130
    Gantry/Tisch-Steuerung
    132
    Datenerfassungsschaltung
    134
    Datenverarbeitungsschaltung
    136
    140
    System
    142
    Modul zur radioaktiven Markierung
    144
    Injektion
    146
    Scanner
    148
    Scannersteuerschaltung
    150
    Datenerfassungsschaltung
    152
    Datenverarbeitungsschaltung
    154
    156
    158
    160
    Verfahren
    162
    Organisieren von Daten
    164
    Bilddaten
    166
    Nicht-Bilddaten
    168
    Identifizieren von quelleninvarianten Merkmalen
    170
    Klassifizieren von Objekten
    172
    Organisieren von Ergebnissen
    174
    Ausgabe von Ergebnissen
    176
    178
    Darstellung, Diagramm
    180
    Dateneingabemodul
    182
    Datenorganisationsmodul
    184
    Vorverarbeitungsmodul
    186
    Klassifizierungsmodul
    188
    Ausgabemodul
    190
    192
    Darstellung, Diagramm
    194
    Anfängliche Klassifizierungsergebnisse
    196
    Indexierte Ergebnisse
    198
    Graphische Ausgabe
    200
    Tonausgabe, Audioausgabe
    202
    Tragbares Gerät, tragbare Vorrichtung
    204
    Computerstation
    206
    Automatisierte Werkzeuge
    208
    210
    Verfahren
    212
    Problemdefinition
    214
    Sammeln von Ergebnissen
    216
    Revidieren der Problemdefinition
    218
    Entscheidungsblock
    220
    Bereitstellen der revidierten Problemdefinition
    222
    Trainieren des lernenden Automaten
    224
    Test des lernenden Automaten
    226
    Entscheidungsblock
    228
    Validieren

Claims (10)

  1. System, aufweisend: eine Speichervorrichtung (14, 16) mit mehreren darin gespeicherten Routinen; einen Prozessor (12), der zur Ausführung der mehreren in der Speichervorrichtung gespeicherten Routinen konfiguriert ist, wobei die mehreren Routinen aufweisen: eine Routine (180), die dafür konfiguriert ist, wenn sie ausgeführt wird, einen Empfang von Eingangsdaten von einer Datenquelle zu bewirken; eine Routine (182), die dafür konfiguriert ist, wenn sie ausgeführt wird, eine Organisierung der Eingangsdaten zu bewirken; eine Routine (184), die dafür konfiguriert ist, wenn sie ausgeführt wird, eine Identifizierung (168) eines oder mehrerer Merkmale eines interessierenden Objektes aus den Eingangsdaten zu bewirken, wobei die Identifizierung des Merkmals die Identifizierung von einer oder mehreren quelleninvarianten Eigenschaften des interessierenden Objektes beinhaltet; eine Routine (186), die dafür konfiguriert ist, wenn sie ausgeführt wird, eine Klassifizierung (170) des interessierenden Objektes mittels eines lernenden Algorithmus zu bewirken, wobei die Klassifizierung des interessierenden Objektes wenigstens teilweise auf der einen oder den mehreren identifizierten quelleninvarianten Eigenschaften basiert; und eine Routine (188), die dafür konfiguriert ist, wenn sie ausgeführt wird, eine Ausgabe (174) von Ergebnissen der Klassifizierung des interessierenden Objektes zu bewirken.
  2. System nach Anspruch 1, wobei die Eingangsdaten Bilddaten (164) und Nicht-Bilddaten (166) beinhalten.
  3. System nach Anspruch 2, wobei die Klassifizierung des interessierenden Objektes wenigstens teilweise sowohl auf den Bilddaten als auch auf den Nicht-Bilddaten basiert.
  4. System nach Anspruch 1, wobei die Datenquelle ein Bildgebungssystem (70) beeinhaltet, das für die Erfassung von patientenrelevanten Daten konfiguriert ist.
  5. System nach Anspruch 1, wobei die Datenquelle eine Datenbank (40) mit Patienteninformationen beinhaltet.
  6. System nach Anspruch 1, wobei die eine oder die mehreren quelleninvarianten Eigenschaften des interessierenden Objektes geometrische Eigenschaften, Texteigenschaften oder eine Dichte des interessierenden Objektes beinhalten.
  7. Verfahren, aufweisend: Bereitstellen (212) einer anfänglichen Problemdefinition für eine medizinische Institution, wobei die anfängliche Problemdefinition einen Prozess für die Vorhersage eines Diagnoseergebnisses bezüglich in medizinischen Bilddaten (164) detektierter Objekte durch Analyse wenigstens der medizinischen Bilddaten beinhaltet; Empfangen (214) von Diagnosedaten von der medizinischen Institution bezüglich eines detektierten Objektes in den medizinischen Bilddaten; Vergleichen der Diagnosedaten mit dem vorhergesagten Diagnoseergebnis bezüglich des detektierten Objektes; Revidieren (216) der anfänglichen Problemdefinition wenigstens teilweise auf der Basis des Vergleichs; Trainieren (222) eines lernenden Automaten wenigstens teilweise auf der Basis der von der medizinischen Institution empfangenen Diagnosedaten; Betreiben (170) des lernenden Automaten, um ein medizinisches Bild zu analysieren und um ein vorhergesagtes Diagnoseergebnis bezüglich eines in dem medizinischen Bild detektierten Objektes zu erzeugen; und Ausgeben (174) eines ein Ergebnis der Analyse des medizinischen Bildes durch den lernenden Automaten anzeigenden Berichtes.
  8. Verfahren nach Anspruch 7, wobei das Trainieren des lernenden Automaten ein Training eines Klassifizierungsalgorithmus umfasst und ferner eine Verbreitung des Klassifizierungsalgorithmus zur Installation auf einem zusätzlichen Automaten umfasst, so dass der zusätzliche Automat konfiguriert wird, um mittels des Klassifizierungsalgorithmus medizinische Bilder zu analysieren und vorhergesagte Diagnoseergebnisse zu erzeugen.
  9. Verfahren nach Anspruch 8, wobei der Schritt der Verbreitung des Klassifizierungsalgorithmus wenigstens einen Schritt aufweist, von: Übertragen des Klassifizierungsalgorithmus über ein Netzwerk; und/oder Liefern eines computerlesbaren Mediums mit dem darauf codierten Klassifizierungsalgorithmus.
  10. Verfahren nach Anspruch 9, wobei die Verbreitung des Klassifizierungsalgorithmus die Verbreitung eines Computerprogramms umfasst, das den Klassifizierungsalgorithmus enthält.
DE102009044075A 2008-09-30 2009-09-22 Auf aktiven elektronischen Patientenakten basierendes Unterstützungssystem unter Nutzung von lernenden Automaten Ceased DE102009044075A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/242,319 US20100082506A1 (en) 2008-09-30 2008-09-30 Active Electronic Medical Record Based Support System Using Learning Machines
US12/242,319 2008-09-30

Publications (1)

Publication Number Publication Date
DE102009044075A1 true DE102009044075A1 (de) 2010-04-01

Family

ID=41720074

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009044075A Ceased DE102009044075A1 (de) 2008-09-30 2009-09-22 Auf aktiven elektronischen Patientenakten basierendes Unterstützungssystem unter Nutzung von lernenden Automaten

Country Status (3)

Country Link
US (1) US20100082506A1 (de)
JP (1) JP5789080B2 (de)
DE (1) DE102009044075A1 (de)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8786873B2 (en) 2009-07-20 2014-07-22 General Electric Company Application server for use with a modular imaging system
US8243882B2 (en) 2010-05-07 2012-08-14 General Electric Company System and method for indicating association between autonomous detector and imaging subsystem
US8873836B1 (en) 2012-06-29 2014-10-28 Emc Corporation Cluster-based classification of high-resolution data
WO2014155690A1 (ja) * 2013-03-29 2014-10-02 富士通株式会社 モデル更新方法、装置、およびプログラム
KR101865317B1 (ko) * 2014-01-14 2018-07-13 한국전자통신연구원 데이터 분산처리 시스템을 위한 빅 데이터의 전처리 장치 및 방법
JP7197358B2 (ja) * 2016-01-27 2022-12-27 コーニンクレッカ フィリップス エヌ ヴェ 臨床業務フローを最適化するための予測モデル
US11723579B2 (en) 2017-09-19 2023-08-15 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement
US10803984B2 (en) 2017-10-06 2020-10-13 Canon Medical Systems Corporation Medical image processing apparatus and medical image processing system
US11517197B2 (en) 2017-10-06 2022-12-06 Canon Medical Systems Corporation Apparatus and method for medical image reconstruction using deep learning for computed tomography (CT) image noise and artifacts reduction
US11049250B2 (en) 2017-11-22 2021-06-29 General Electric Company Systems and methods to deliver point of care alerts for radiological findings
US10783634B2 (en) 2017-11-22 2020-09-22 General Electric Company Systems and methods to deliver point of care alerts for radiological findings
US10799189B2 (en) * 2017-11-22 2020-10-13 General Electric Company Systems and methods to deliver point of care alerts for radiological findings
US11717686B2 (en) 2017-12-04 2023-08-08 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to facilitate learning and performance
US11318277B2 (en) 2017-12-31 2022-05-03 Neuroenhancement Lab, LLC Method and apparatus for neuroenhancement to enhance emotional response
US12280219B2 (en) 2017-12-31 2025-04-22 NeuroLight, Inc. Method and apparatus for neuroenhancement to enhance emotional response
JP7023162B2 (ja) 2018-04-03 2022-02-21 富士フイルム株式会社 予測装置、予測方法、及び予測プログラム
US11364361B2 (en) 2018-04-20 2022-06-21 Neuroenhancement Lab, LLC System and method for inducing sleep by transplanting mental states
US11538112B1 (en) * 2018-06-15 2022-12-27 DocVocate, Inc. Machine learning systems and methods for processing data for healthcare applications
JP7479805B2 (ja) * 2018-09-06 2024-05-09 キヤノンメディカルシステムズ株式会社 医用情報処理装置、医用情報処理方法、医用情報処理プログラムおよび医用情報処理システム
WO2020056418A1 (en) 2018-09-14 2020-03-19 Neuroenhancement Lab, LLC System and method of improving sleep
US10993624B2 (en) 2019-02-19 2021-05-04 Endra Life Sciences Inc. Systems and methods for thermoacoustic transducer optimization
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6176144A (ja) * 1984-09-21 1986-04-18 オリンパス光学工業株式会社 医用画像フアイル装置
JPH03102477A (ja) * 1989-06-26 1991-04-26 Fuji Photo Film Co Ltd 放射線画像処理装置
US6157921A (en) * 1998-05-01 2000-12-05 Barnhill Technologies, Llc Enhancing knowledge discovery using support vector machines in a distributed network environment
US6760715B1 (en) * 1998-05-01 2004-07-06 Barnhill Technologies Llc Enhancing biological knowledge discovery using multiples support vector machines
US6789069B1 (en) * 1998-05-01 2004-09-07 Biowulf Technologies Llc Method for enhancing knowledge discovered from biological data using a learning machine
US6658395B1 (en) * 1998-05-01 2003-12-02 Biowulf Technologies, L.L.C. Enhancing knowledge discovery from multiple data sets using multiple support vector machines
US6996549B2 (en) * 1998-05-01 2006-02-07 Health Discovery Corporation Computer-aided image analysis
US6714925B1 (en) * 1999-05-01 2004-03-30 Barnhill Technologies, Llc System for identifying patterns in biological data using a distributed network
US6126608A (en) * 1999-05-18 2000-10-03 Pie Medical Equipment B.V. Portable ultrasound diagnostic system with handsfree display
US6424960B1 (en) * 1999-10-14 2002-07-23 The Salk Institute For Biological Studies Unsupervised adaptation and classification of multiple classes and sources in blind signal separation
US6658396B1 (en) * 1999-11-29 2003-12-02 Tang Sharon S Neural network drug dosage estimation
WO2001053992A1 (en) * 2000-01-21 2001-07-26 Shaw Sandy C Method for the manipulation, storage, modeling, visualization and quantification of datasets
EP1384155A4 (de) * 2001-03-01 2007-02-28 Health Discovery Corp Spektralkerne für lernende maschinen
WO2002088895A2 (en) * 2001-05-01 2002-11-07 Amicas, Inc. System and method for repository storage of private data on a network for direct client access
JP2003038476A (ja) * 2001-08-03 2003-02-12 Konica Corp コンピュータ支援診断システム
EP1436771B1 (de) * 2001-10-16 2011-06-22 The University of Chicago Computerunterstützte erkennung dreidimensionaler läsionen
WO2003040964A2 (en) * 2001-11-02 2003-05-15 Siemens Medical Solutions Usa, Inc. Patient data mining for diagnosis and projections of patient states
US7295691B2 (en) * 2002-05-15 2007-11-13 Ge Medical Systems Global Technology Company, Llc Computer aided diagnosis of an image set
US7346209B2 (en) * 2002-09-30 2008-03-18 The Board Of Trustees Of The Leland Stanford Junior University Three-dimensional pattern recognition method to detect shapes in medical images
JP4480508B2 (ja) * 2004-08-02 2010-06-16 富士通株式会社 診断支援プログラムおよび診断支援装置
EP1780651A1 (de) * 2005-10-25 2007-05-02 Bracco Imaging, S.P.A. Verfahren und System zur automatischen Verarbeitung und Bewertung von Bildern, im Besonderen diagnostischer Bilder
JP2008033751A (ja) * 2006-07-31 2008-02-14 Ziosoft Inc アップデート方法およびアップデートシステム

Also Published As

Publication number Publication date
JP2010086537A (ja) 2010-04-15
US20100082506A1 (en) 2010-04-01
JP5789080B2 (ja) 2015-10-07

Similar Documents

Publication Publication Date Title
DE102009044075A1 (de) Auf aktiven elektronischen Patientenakten basierendes Unterstützungssystem unter Nutzung von lernenden Automaten
US11941786B2 (en) Image noise reduction method and device
EP4143779B1 (de) Maschinelles lernen im bereich der kontrastmittelverstärkten radiologie
DE10311319B4 (de) Verfahren, System und Computerprodukt zur Planung eines Herzinterventionsverfahrens
DE102020118559A1 (de) Deep learning für eine Perfusion bei der medizinischen Bildgebung
DE102008002882A1 (de) System und Verfahren zu von einer elektronischen Krankenakte beeinflusster Datenerfassung, -verarbeitung und -anzeige
US12315626B2 (en) Automated protocoling in medical imaging systems
EP3238780B1 (de) Verfahren zur unterstützung einer planung einer bestrahlung eines patienten
DE102010017432A1 (de) Vorrichtung und Verfahren zum Isolieren eines Gebietes in einem Bild
DE112016004907T5 (de) Virtuelle CT-Bilder aus Magnetresonanzbildern
DE102004055768A1 (de) Verfahren und Systeme für die computerunterstützte zielgerechte Bildgebung
DE112016006137T5 (de) Synthetische Darstellung einer Gefäßstruktur
DE102017221830A1 (de) Charakterisierung eines Störkörpers innerhalb eines Untersuchungsobjektes anhand eines medizinischen Bilddatensatzes
Liang et al. Guest editorial low-dose CT: what has been done, and what challenges remain?
DE102015219622B4 (de) Rekonstruktion einer Abbildung anhand einer oder mehrerer Bildgebungsmodalitäten
EP3404436A1 (de) Funktionelle magnetresonanz-bildgebung
DE102012100067A1 (de) Verfahren und System zur verbesserten medizinischen Bildanalyse
DE102013214023A1 (de) Verfahren zu einem Auswerten und Vergleichen von zeitlich aufeinander folgenden kombinierten medizinischen Bildgebungsuntersuchungen sowie ein medizinisches Bildgebungssystem, das zu einem Ausführen des erfindungsgemäßen Verfahrens ausgelegt ist
DE112020005870T5 (de) Unterstützungsvorrichtung für dokumentenerstellung, unterstützungsverfahren für dokumentenerstellung und unterstützungsprogramm für dokumentenerstellung
DE102017208560A1 (de) Funktionelle Magnetresonanz-Bildgebung
DE102016215105A1 (de) Verfahren und Datenverarbeitungseinheit zum Ermitteln eines Akquisitionsdatenverarbeitungsalgorithmus
DE102015205493B4 (de) Betrieb einer medizinischen Bildgebungsvorrichtung
DE102015200850B4 (de) Verfahren zur Auswertung von medizinischen Bilddaten
DE102024201496A1 (de) Verfahren und Systeme zum Bereitstellen einer Bilderfassungsinformation eines medizinischen Bildes
Waldkirch Methods for three-dimensional registration of multimodal abdominal image data

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final