[go: up one dir, main page]

WO2019091509A1 - Verfahren zur auswertung des hautbildes eines menschen im rahmen der hautkrebs- vorsorgeuntersuchung sowie vorrichtung zu dessen betrieb - Google Patents

Verfahren zur auswertung des hautbildes eines menschen im rahmen der hautkrebs- vorsorgeuntersuchung sowie vorrichtung zu dessen betrieb Download PDF

Info

Publication number
WO2019091509A1
WO2019091509A1 PCT/DE2018/000325 DE2018000325W WO2019091509A1 WO 2019091509 A1 WO2019091509 A1 WO 2019091509A1 DE 2018000325 W DE2018000325 W DE 2018000325W WO 2019091509 A1 WO2019091509 A1 WO 2019091509A1
Authority
WO
WIPO (PCT)
Prior art keywords
cnn
image
images
lesion
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/DE2018/000325
Other languages
English (en)
French (fr)
Inventor
Andreas Mayer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FotoFinder Systems GmbH
Original Assignee
FotoFinder Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FotoFinder Systems GmbH filed Critical FotoFinder Systems GmbH
Publication of WO2019091509A1 publication Critical patent/WO2019091509A1/de
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the invention relates to a method for examining the skin of a subject, in particular in the context of a skin cancer screening.
  • the invention further relates to an apparatus for carrying out the method.
  • the typical method for the early detection of malignant melanomas is the monitoring of suspicious naevi over time using digital reflected light microscopy. Images are taken with a special video camera and dermatoscopy attachment (eg FotoFinder medicam®) in 20-70x magnification and stored in a database. Following-up monitoring allows early identification of developing melanomas and removes them at a stage where the chances of recovery are considered high. By comparing repeat exposures at intervals of three to six months, changes are diagnosed in time to specifically excise suspicious lesions. The evaluation of the lesions is the sole responsibility of the dermatologist and depends on his expertise. On average, dermatologists achieve a sensitivity of approx. 80% and a specificity of approx. 80% in early detection of skin cancer.
  • the "sensitivity" (true positive rate of a test) refers to the proportion of test-positive persons among all patients in a sample, d. H. the likelihood of diagnosing the patient as ill with a diagnostic test. A high sensitivity is sought when a disease with high security is to be excluded.
  • the "specificity" (true-negative rate of a test) describes the proportion of test-negative persons among all non-sufferers of a random sample, ie the probability with one diagnostic test to correctly identify non-sufferers. A high specificity is sought if a disease is to be confirmed with great certainty.
  • the "Tübinger Mole Analyzer” (developed under the direction of the University Skin Clinic Tübingen) is a tool to underpin the diagnosis of the dermatologist.Microscopic images of lesions are evaluated according to certain image recognition parameters and these values are compared with values of a reference database (Score) gives the dermatologist further clues to establishing his final diagnosis.
  • Score reference database
  • the image analysis software uses a filter to remove any image interference caused by the accidental absorption of small air bubbles or caused by hair.
  • the next step is a fully automated edge search.
  • the software describes the lesion as precisely as possible using a specially developed procedure, taking into account gradients and changes in brightness.
  • the most important image-analytical parameters were investigated, which enable a distinction between melanoma and birthmark.
  • probability statements can be used to diagnose the melanoma.
  • Two models were adapted: one for small lesions that are fully imaged, the other for large lesions protruding beyond the edge of the image.
  • the sensitivity is 80 percent, the specificity 82 percent; Sensitivity is 88 percent and specificity 83 percent for the 232 large lesions.
  • the system achieves approximately the same diagnostic quality as that of a specialist.
  • this expert system is disadvantageous in that the use of the expert system is only validated for one recording medium (camera). Although lesions recorded with different camera models (video camera, digital camera, etc.) can also be evaluated, the results are not validated.
  • US Pat. No. 7,994,651 discloses a device and a method that by means of a special computer-aided imaging system (MelaFind®) can for the first time non-invasively record, display and evaluate data of a conspicuous liver spot from deeper skin layers of up to 2.5 mm.
  • MelaFind® computer-aided imaging system
  • the multispectral use of polarized light (10 different wavelengths from 430 to 950 nm) makes it possible to detect conspicuous growth patterns below the skin surface extremely precisely (resolution up to 20 pm) and the degree of such To assess conspicuousness extremely precisely (sensitivity of 98.3%).
  • sensitivity of 98.3% sensitivity of 98.3%.
  • an approval study for the US market found that the specificity is relatively low, ie the system often classifies lesions as malignant, which later turned out to be harmless in the histological evaluation. This system offers neither the physician nor the patient added value in skin cancer screening, as almost every birthmark is classified as a risk mother.
  • WO / 2011/087807 discloses a system and method for diagnosing melanoma from digital images taken by a remote user with a smartphone or digital camera and transmitted to an image analysis server communicating with a distributed network.
  • the image analysis server includes a trained learning machine for classifying images of malignant and benign skin lesions.
  • the user-provided image is pre-processed to extract size, shape, and color. These features are then processed with the trained learning machine to classify the suspicious lesion.
  • the classification result is post-processed and a risk score is determined, which is transmitted to the remote user.
  • a database associated with the server contains geographic matching reference information, i.
  • the remote user is provided with contact information from doctors for the treatment of skin cancer.
  • Convolutional Neural Network deep convolutional neural network
  • Typical models of a Convolutional Neural Network are QuocNet, AlexNet, Inception (GoogLeNet), BN-lnception-v2. Research has shown steady progress in image processing by validating results against ImageNet.
  • ImageNet is a database of images used for research projects. Each picture is assigned to a noun. The nouns are hierarchically arranged by the Word Net project. Each noun has an average of more than 500 images.
  • ImageNet has been used to train Convolutional Neural Networks (CNN) since its release in 2009 at the IEEE Conference on Computer Vision and Pattern Recognition, and represents an academic benchmark for image recognition.
  • CNN Convolutional Neural Network
  • the aim is to work with clinical images of the skin to determine the malignancy of a lesion with the help of a CNN.
  • the disadvantage here is that the available image material on clinical images is often poorly and not histologically confirmed in terms of their quality, i. to train a CNN is only partially suitable.
  • a further object of the invention is to provide a device which is particularly suitable for carrying out said method.
  • the advantages achieved by the invention are in particular that a rule-independent assessment of lesions can be based on the microscopic and clinical images that are created in the daily dermatological practice in the context of digital skin cancer screening.
  • the invention is independent of the digital recording media, image formats and image resolutions used.
  • the combination of microscopic and clinical images as part of an evaluation using a Convolutional Neural Network (CNN) brings the evaluation process as such to a new level and enables a parallel evaluation or a single evaluation based on the microscopic image or the clinical picture.
  • CNN Convolutional Neural Network
  • FIG. 1 is a schematic flow diagram of part of the method according to the invention
  • FIG. 2 shows a schematic flow diagram of a further part of the method according to the invention
  • FIG. 1 is a schematic flow diagram of part of the method according to the invention
  • FIG. 2 shows a schematic flow diagram of a further part of the method according to the invention
  • FIG. 1 is a schematic flow diagram of part of the method according to the invention
  • FIG. 2 shows a schematic flow diagram of a further part of the method according to the invention
  • FIG. 3 shows a schematic representation of a device which is particularly suitable for carrying out said method
  • the method according to the invention provides the following steps according to FIG. 1:
  • microscopic images are created by the user to the lesions found using a digital dermatoscope (S1 b). It is up to the user whether he creates microscopic images of all or only selected lesions.
  • the microscopic images are assigned to the lesions in the total body mapping images by the prescriptive procedure (Si c).
  • the microscopic images are transferred to the evaluation module containing a CNN, which is based, for example, on the GoogleNet Inception v4 CNN architecture.
  • the microscopic images are processed as follows:
  • the Inception architecture currently requires standardized delivery of 229 x 229 pixel images.
  • the microscopic images are usually in a rectangular format and are recorded in a higher resolution. After the microscopic images can come from different recording devices, in addition, the resolution of each recording may vary. Adjusting the image ratio to a 1: 1 ratio for the CNN module can be achieved by cropping the image to a 1: 1 aspect ratio or by filling the rectangular image area to a 1: 1 aspect ratio.
  • the method step on which this invention is based therefore provides a combined procedure.
  • the image is filled to an image ratio of 1: 1 (so-called padding).
  • the image is filled with black pixels on a square image format.
  • this image is cropped (so-called cropping), so that they can be taken over in terms of format and resolution of the CNN evaluation module.
  • cropping cropping
  • a large number of image crops with a picture ratio of 1: 1 and a resolution of 229 x 229 pixels are created from a microscopic image. As a result, no loss of quality must be accepted.
  • the lesion can be excised from the image by means of automatic edge recognition and buffered in a new data set.
  • the aforementioned processing steps S2a and S2b are then subsequently carried out on this data record, with the advantage that less image information is lost in the process.
  • a CNN consists of one or more convolutional layers, often with a sub-sampling layer followed by one or more fully connected layers as in a conventional neural network.
  • the design of a CNN is based on the visual cortex in the brain.
  • the visual cortex contains many cells responsible for detecting light in small overlapping subregions of the visual field. These are called receptor fields.
  • the cells act as local filters for the input area, while more complex cells have larger receptor fields.
  • the folding layer in a CNN performs the same function as the cells in the visual cortex.
  • Each element of a layer receives inputs from different elements that are in close proximity to the previous layer and thus are quasi-local receptor fields. With local receptor fields, elementary traits such as edges, endpoints, corners, etc. can be extracted, which are then combined by means of higher layers.
  • a manually developed feature extraction tool collects relevant information from the input and removes irrelevant components.
  • the extraction tool is followed by a trainable classifier, a conventional neural network, which classifies feature vectors into classes.
  • trainable classifier a conventional neural network
  • folding layers assume the function of the feature extraction tool.
  • the CNN structure used in this invention consists of 27 layers, the first layer representing the input image and the last layer the classification and a confidence value.
  • certain filter methods are applied to different pixel settings to extract as much information from the images as possible. Some filters extract certain averages or maximums.
  • the model is generalized over the penultimate layer.
  • CNN networks work best with large datasets. For this purpose, a very well-trained data set (over 1.2 million images) with excellent performance with regard to general image recognition is used and adapts to the new task for the detection of skin lesions.
  • transfer learning This method is referred to as "transfer learning.”
  • the existing model is initialized with adjusted weighting values, so that it is finally able to classify a lesion.
  • the specific training of the invention was used Over 25,000 dermatoscopic images of skin lesions were used, which were diagnosed as either malignant or benign by histology or by follow-up without change.
  • image sections produced according to S2a and S2b are now transferred by the CNN evaluation module (S3) and evaluated with regard to their malignancy (S4a).
  • the image sections are in each case entered several times into the CNN evaluation module in different orientations, i. in different angles and rotations.
  • the final result is then displayed in the form of a weight value for the affected lesion on the output unit for the user.
  • a microscopic image is always associated with a clinical image
  • a partial detail is created and stored by the processing unit in a supplementary method step (see FIG. 2) from the clinical image.
  • the extraction is performed by an image recognition and processing function (software) installed on the processing unit. If this detail is subsequently displayed in full resolution, the dermoscopic structures of the lesion, such as color, diameter, structure, and limitation, can be easily recognized on the basis of this clinical image. Subsequently, this record is provided for training the CNN by being entered into the CNN according to the usual procedure (S6).
  • inventive method can also be used in addition to clinical images, because after appropriate training effort based on the clinical pictures of a lesion already made a risk assessment in terms of malignancy.
  • the lesion is a melanocytic or a non-melanocytic lesion. Having the demarcation between melanocytic and non-melanocytic lesions is expensive for the doctor, a corresponding evaluation by the method according to the invention provides a clear added value for the medical diagnosis.
  • melanocytic lesion refers to a skin area that differs in color from its surroundings. responsible for the mostly brownish color are the pigment cells of the skin - the melanocytes. This lesion is called a nevus.
  • Non-melanocytic lesions are understood to be due to various factors related to changes in the epidermis. The causes are especially chronic light damage or infection with certain viruses in question. Compared to the melanocytic lesions, they are delineated in a multi-step procedure. Common non-melanocytic lesions include, for example, actinic keratosis or Bowen's disease, a precursor to the spinal biome, and basal cell carcinomas.
  • Actinic keratoses may be dark in color, so the doctor may initially assume a melanocytic lesion.
  • the method is analogous to the method for determining the weighting value in terms of malignancy.
  • the microscopic images of the lesion are prepared for transfer to the CNN and transferred to it.
  • the CNN has previously been trained on the basis of training data sets by means of images of melanocytic and non-melanocytic lesions and can issue a weighting value in this regard.
  • the object according to the invention is achieved by a computerized device which is equipped with a receiving unit for receiving clinical images of skin lesions as well as the associated microscopic images of the skin lesion of a human or animal. Further, the device has a processing unit configured to process the received clinical images of skin lesions and the associated microscopic images of the skin lesions, ie to prepare the images for delivery to a Convolutional Neural Network (CNN). Further, the device has a provisioning unit configured to hold a Convolutional Neural Network (CNN). Since the operation of a Convolutional Neural Network (CNN) requires significant computing power, the provisioning unit is typically spatially separate from the receiving and processing unit and the various units are connected via a network line or the Internet.
  • CNN Convolutional Neural Network
  • the receiving and processing unit can for example consist of a commercially available Total Body Mapping System (eg FotoFinder bodystudio ATBM), as disclosed in DE 20 2013 007 374U1. It uses a high-resolution digital camera (resolution 24 megapixels or higher) to create the clinical images of the human skin of individual body regions.
  • the processing unit uses the high-resolution images to extract individual lesions from the clinical image and provide them in their full resolution for further processing. The extraction is performed by an image recognition and processing function (software) installed on the processing unit. If this detail is then displayed in full resolution, you can already use this clinical picture of the dermoscopic structures of the lesion such as color, diameter, structure, limitation are well recognized.
  • the extracted images are saved as a new record and linked to the associated clinical record. These two data records can then be transferred to the CNN for further evaluation.
  • the data set of the clinical image can be used to train the CNN, the result of the evaluation of the associated microscopic image being transmitted in the form of the weighting value.
  • This weighting value defines the classification of the clinical picture as benign or malignant.
  • the histological findings for the lesion can also be transferred. If a lesion is classified by the doctor as malignant and surgically removed, the malignancy of the lesion is usually clarified as part of a histological examination. The result of the histological examination can be linked to the record of the microscopic image and thus also to the clinical recording of the lesion, thus increasing the validity of the data set as a training dataset for the CNN.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

Es wird ein verbessertes Verfahren zur Untersuchung der Haut anhand von mikroskopischen Bildern unter Einbeziehung eines Convolutional Neural Networks (CNN) vorgestellt. Dieses Verfahren soll ferner durch die ergänzende Auswertung von klinischen Bildern zusammen mit den mikroskopischen Bildern verfeinert werden. Der Erfindung liegt weiterhin die Aufgabe zugrunde, eine zur Durchführung des genannten Verfahrens besonders geeignete Vorrichtung anzugeben. Die mit der Erfindung erzielten Vorteile bestehen insbesondere darin, dass eine regelunabhängige Bewertung von Läsionen anhand der mikroskopischen und klinischen Bilder erfolgen kann, die in der täglichen dermatologischen Praxis im Rahmen der digitalen Hautkrebsvorsorge erstellt werden. Die Erfindung ist unabhängig von den verwendeten digitalen Aufnahmemedien, Bildformaten und Bildauflösungen. Die Kombination von mikroskopischen und klinischen Bildern im Rahmen einer Auswertung mittels eines Convolutional Neural Networks (CNN) bringt den Auswertevorgang als solche auf eine neue Ebene und ermöglicht eine parallele Auswertung oder eine Einzelauswertung anhand des mikroskopischen Bildes oder des klinischen Bildes.

Description

Beschreibung
Verfahren zur Auswertung des Hautbildes eines Menschen im Rahmen der Hautkrebs- Vorsorgeuntersuchung sowie Vorrichtung zu dessen Betrieb
Die Erfindung bezieht sich auf ein Verfahren zur Untersuchung der Haut eines Probanden, insbesondere im Rahmen einer Hautkrebs-Vorsorgeuntersuchung. Die Erfindung bezieht sich des Weiteren auf eine Vorrichtung zur Durchführung des Verfahrens.
Hinsichtlich der Häufigkeit von Hautkrebs-Erkrankungen ist in jüngerer Zeit ein deutlicher Anstieg festzustellen. Ursache hierfür ist insbesondere der Trend, sich vermehrt intensiver Sonnenbestrahlung auszusetzen. Die häufigste tödlich verlaufende Hauterkrankung ist das sogenannte maligne Melanom. Bei einer frühzeitigen Diagnose der Hauterkrankung und einer sofort eingeleiteten Therapie, die in der Regel die chirurgische Entfernung des erkrankten Gewebes umfasst, bestehen gute Heilungsaussichten. Problematisch ist jedoch die frühzeitige Erkennung. Die modernsten Methoden zur Früherkennung maligner Melanome sind die digitale Auflichtmikroskopie sowie die Analyse einzelner Naevi und die Analyse des gesamten Hautbildes zum Aufzeigen neuer und veränderter Läsionen, das sogenannte Total Body Mapping. Eine Kombination aus Auflichtmikroskopie und Total Body Mapping stellt den Goldstandard der Hautkrebsvorsorge dar und dient dazu, Veränderungen pigmentierter Hautläsionen noch frühzeitiger festzustellen und unnötige Exzisionen zu vermeiden.
Die typische Methode zur Früherkennung maligner Melanome ist die Überwachung verdächtiger Naevi im Zeitablauf mit Hilfe der digitalen Auflichtmikroskopie. Dabei werden mit einer speziellen Videokamera und Dermatoskopievorsatz (z. B. FotoFinder medicam®) Bilder in 20-70facher Vergrößerung gemacht und in einer Datenbank abgespeichert. Durch die Verlaufskontrolle können entstehende Melanome frühzeitig erkannt und in einem Stadium entfernt werden, in dem die Heilungschancen als hoch gelten. Durch den Vergleich von Wiederholungsaufnahmen in Abständen von drei bis sechs Monaten werden Veränderungen rechtzeitig diagnostiziert, um suspekte Läsionen gezielt zu exzidieren. Die Beurteilung der Läsionen liegt in der alleinigen Verantwortung des Dermatologen uns ist von dessen Expertise abhängig. Im Durchschnitt erreichen Dermatologen bei der Hautkrebsfrüherkennung eine Sensitivität von ca. 80% und einer Spezifität von ca. 80%.
Die "Sensitivität" (richtig positive Rate eines Tests) bezeichnet den Anteil der test-positiven Personen unter allen Erkrankten einer Stichprobe, d. h. die Wahrscheinlichkeit, mit einem diagnostischen Test die Kranken auch als krank zu identifizieren. Eine hohe Sensitivität wird angestrebt, wenn eine Erkrankung mit hoher Sicherheit ausgeschlossen werden soll.
Die "Spezifität" (richtig-negative Rate eines Tests) beschreibt den Anteil der Test-negativen Personen unter allen Nicht-Erkrankten einer Stichprobe, d. h. die Wahrscheinlichkeit, mit einem diagnostischen Test Nicht-Erkrankte korrekt zu identifizieren. Eine hohe Spezifität wird angestrebt, wenn eine Erkrankung mit großer Sicherheit bestätigt werden soll.
Für die Unterscheidung zwischen gutartigen Muttermalen und dem malignen Melanom ist eine jahrelange klinische Erfahrung erforderlich. Selbst Spezialisten können anhand des klinischen Bildes nicht immer sicher entscheiden, ob es sich um ein Melanom oder ein auffälliges Muttermal handelt. Zur auflichtmikroskopischen Bewertung von Muttermalen wurden in den letzten Jahren einige unterschiedliche Scores ( ABCD Regel, 7 Point Rule, 3 Point Rule) erarbeitet, die für die Diagnose von Melanomen hilfreich sein sollen - insbesondere für Dermatologen in der Ausbildung, für auf diesem Gebiet weniger erfahrene Dermatologen und für schwierig zu diagnostizierende Läsionen. Die Bewertung von Muttermalen hinsichtlich ihrer Malignität wird ferner durch zahlreiche computergestützte Expertensysteme unterstützt. So ist zum Beispiel der„Tübinger Mole Analyzer" (entwickelt unter der Leitung der Universitätshautklinik Tübingen) ein Hilfsmittel zur Untermauerung der Diagnose des Hautarztes. Mikroskopische Aufnahmen von Läsionen werden nach bestimmten Bilderkennungsparametern ausgewertet und diese Werte mit Werten einer Referenzdatenbank verglichen. Ein daraus ermittelter Gesamtwert (Score) gibt dem Dermatologen weitere Anhaltspunkte zur Festlegung seiner finalen Diagnose.
Die Bildanalyse-Software entfernt zunächst mittels eines Filters Bildstörungen, die etwa durch die versehentliche Aufnahme von kleinen Luftbläschen entstehen oder durch Haare verursacht werden. Im nächsten Schritt erfolgt eine vollautomatisierte Randsuche. Dabei beschreibt die Software über ein eigens entwickeltes Verfahren unter Berücksichtigung von Gradienten und Helligkeitsveränderungen möglichst exakt die Läsion. In einer an der Universitäts-Hautklinik Tübingen eigens dafür durchgeführten Studie wurden die wichtigsten bildanalytischen Parameter untersucht, die eine Unterscheidung zwischen Melanom und Muttermal ermöglichen. Mit einem komplexen Modell, in das die Größe der Läsion, spezielle Farbwerte und ein Texturmaß eingehen, lassen sich Wahrscheinlichkeitsaussagen zur Melanomdiagnose machen. Es wurden zwei Modelle angepasst: eines für kleine Läsionen, die vollständig abgebildet werden, das andere für über den Rand des Bildes hinausragende, große Läsionen. Für 605 kleine Läsionen liegt die Sensitivität bei 80 Prozent, die Spezifität bei 82 Prozent; für die 232 großen Läsionen beträgt die Sensitivität 88 Prozent und die Spezifität 83 Prozent. Damit erreicht das System in etwa die gleiche Diagnosequalität wie die eines Spezialisten. Obwohl die in einer Studie nachgewiesene Spezifität und Sensitivität gute Werte erreicht, ist bei diesem Expertensystem nachteilig, dass die Verwendung des Expertensystems nur für ein Aufnahmemedium (Kamera) validiert ist. Läsionen die mit davon abweichenden Kameramodellen (Videokamera, Digitalkamera etc.) aufgenommen wurden, können zwar auch auswertetet werden, die Ergebnisse sind jedoch nicht validiert.
Aus US7894651 ist eine Vorrichtung und ein Verfahren bekannt, dass mittels eines speziellen computergestützten Bildgebungssystems (MelaFind®) erstmals nicht-invasiv auch Daten eines auffälligen Leberflecks aus tieferen Hautschichten von bis zu 2,5 mm erfasst, dargestellt und auswerten kann. Die multispektrale Verwendung von polarisiertem Licht (10 verschiedenen Wellenlängen von 430 bis 950nm) ermöglicht es, auffällige Wachstumsmuster unterhalb der Hautoberfläche extrem genau nachzuweisen (Auflösung bis zu 20pm) und den Grad einer solchen Auffälligkeit äußerst präzise einzustufen (Sensitivität von 98,3%). In einer Zulassungsstudie für den US- amerikanischen Markt wurde jedoch festgestellt, dass die Spezifität relativ niedrig ist, d.h. das System häufig Läsionen als malignen einstuft, die sich später im Rahmen der histologischen Auswertung als harmlos herausstellten. Dieses System bietet weder dem Arzt als auch dem Patienten einen Mehrwert in der Hautkrebsfrüherkennung, da nahezu jedes Muttermal als Risikomuttermal eingestuft wird.
Nachteil aller Expertensysteme ist, dass sie hochspezialisiert auf ein schmales Wissensgebiet sind und se die Grenzen ihrer Kompetenz nicht erkennen. Werden also nicht passende Bilder in ein Expertensystem eingeben, kann dieses Diagnoseempfehlungen oder Risikoeinschätzungen geben, die schlichtweg falsch sind, weil das Ausgangsmaterial ungeeignet war. Insofern bedarf ein Expertensystem immer einen kompetenten Anwender.
Aus WO/2011/087807 ist ein System und Verfahren zur Diagnose eines Melanoms aus digitalen Bildern, die von einem entfernten Benutzer mit einem Smartphone oder einer Digitalkamera aufgenommen wurden und an einen Bildanalyseserver übertragen, der mit einem verteilten Netzwerk kommuniziert, bekannt. Der Bildanalyseserver enthält eine trainierte Lernmaschine zur Klassifizierung von Bildern von malignen und benignen Hautläsionen. Das vom Benutzer bereitgestellte Bild wird vorab verarbeitet, um Größe, Form und Farbe zu extrahieren. Diese Features werden dann mit der trainierten Lernmaschine verarbeitet, um die verdächtige Läsion zu klassifizieren. Das Klassifizierungsergebnis wird nachverarbeitet und eine Risikokennzahl ermittelt, die an den entfernten Benutzer übertragen wird. Eine mit dem Server verknüpfte Datenbank enthält Verweisinformationen zum geografischen Abgleich, d.h. dem Fernnutzer werden Kontaktinformationen von Ärzten zur Behandlung von Hautkrebs bereitgestellt.
Die Verwendung von sogenannter Künstlicher Intelligenz zur Musterverarbeitung und zur Erstellung von Diagnoseempfehlungen ist seit den früheren 1960 Jahren bekannt. Man analysierte, ausgehend von der Neurophysiologie, die Informationsarchitektur des menschlichen und tierischen Gehirns. Die Modellierung in Form künstlicher neuronaler Netze illustrierte, wie aus einer einfachen Grundstruktur komplexe Musterverarbeitung geleistet werden kann. Zur Untersuchung dieser Verfahren hat sich die Neuroinformatik als wissenschaftliche Disziplin entwickelt .Diese Art von Lernen beruht im Gegensatz zu Expertensystemen nicht auf der Herleitung und Anwendung von Regeln, denn die besonderen Fähigkeiten des menschlichen Gehirns sind nicht auf einen regelbasierten Intelligenz- Begriff reduzierbar.
Das menschliche Gehirn tut sich bei der Bilderkennung leicht. Es braucht keine Anstrengung, um z.B. einen Löwen und einen Tiger voneinander unterscheiden, ein Zeichen zu lesen oder das Gesicht eines Menschen zu erkennen. Es scheint einfach, weil das menschliche Gehirn unglaublich gut darin ist, Bilder zu verstehen. Hingegen ist eine computergestützte Bilderkennung eine komplexe Aufgabe. In den letzten Jahren hat der Bereich des maschinellen Lernens enorme Fortschritte bei der Bewältigung dieser schwierigen Aufgabe gemacht. Ein als Convolutional Neural Network (tiefe Faltungs-Neuronales Netzwerk) bezeichnete Form von Künstlicher Intelligenz erreicht eine vernünftige Leistung bei schweren visuellen Erkennungsaufgaben, wobei die Ergebnisse in manchen Bereichen mit der menschlichen Leistung übereinstimmen oder diese sogar übertreffen können.
Typische Modelle eines Convolutional Neural Networks sind QuocNet, AlexNet, Inception (GoogLeNet), BN-lnception-v2. Die Forschung hat einen stetigen Fortschritt in der Bildverarbeitung gezeigt, indem sie Ergebnisse gegen ImageNet validiert haben. ImageNet ist eine Datenbank von Bildern, welche für Forschungsprojekte eingesetzt wird. Jedes Bild wird einem Substantiv zugeordnet. Die Substantive sind durch das Word Net-Projekt hierarchisch angeordnet. Zu jedem Substantiv gibt es im Schnitt mehr als 500 Bilder.
ImageNet wird seit der Veröffentlichung, welche 2009 auf der IEEE Conference on Computer Vision and Pattern Recognition stattfand, zum Trainieren von Convolutional Neural Networks (CNN) verwendet - und stellt einen akademischen Maßstab für Bilderkennung dar.
Basierend auf den guten Ergebnissen der Convolutional Neural Network in der allgemeinen Bilderkennung wird in der Medizin und insbesondere in der Dermatologie daran gearbeitet, mit Hilfe von einem Convolutional Neural Network (CNN) die Hautkrebsfrüherkennung zu verbessern.
Es wird dabei gezielt daran gearbeitet, anhand von klinischen Bildern der Haut die Malignität einer Lasion mit Hilfe eines CNN zu bestimmen. Nachteilig erweist sich hierbei, dass das verfügbare Bildmaterial an klinischen Bildern hinsichtlich ihrer Qualität oftmals schlecht und nicht histologisch gesichert ist, d.h. zum Trainieren eines CNN nur bedingt geeignet ist.
Der Erfindung liegt daher die Aufgabe zugrunde, ein vor dem vorstehend beschriebenen Hintergrund verbessertes Verfahren zur Untersuchung der Haut anhand von mikroskopischen Bildern unter Einbeziehung eines CNN vorzuschlagen. Dieses Verfahren soll ferner durch die ergänzende Auswertung von klinischen Bildern zusammen mit den mikroskopischen Bildern verfeinert werden. Der Erfindung liegt weiterhin die Aufgabe zugrunde, eine zur Durchführung des genannten Verfahrens besonders geeignete Vorrichtung anzugeben.
Die mit der Erfindung erzielten Vorteile bestehen insbesondere darin, dass eine regelunabhängige Bewertung von Läsionen anhand der mikroskopischen und klinischen Bilder erfolgen kann, die in der täglichen dermatologischen Praxis im Rahmen der digitalen Hautkrebsvorsorge erstellt werden. Die Erfindung ist unabhängig von den verwendeten digitalen Aufnahmemedien, Bildformaten und Bildauflösungen. Die Kombination von mikroskopischen und klinischen Bildern im Rahmen einer Auswertung mittels eines Convolutional Neural Networks (CNN) bringt den Auswertevorgang als solche auf eine neue Ebene und ermöglicht eine parallele Auswertung oder eine Einzelauswertung anhand des mikroskopischen Bildes oder des klinischen Bildes.
Bezüglich des Verfahrens wird die Aufgabe erfindungsgemäß gelöst durch die Merkmale des Anspruchs 3 ff.. Weitere Vorteile und Merkmale der Erfindung ergeben sich aus nachfolgender Beschreibung eines bevorzugten Ausführungsbeispiels anhand der beigefügten Zeichnungen.
Dabei zeigt:
Fig. 1 ein schematisiertes Ablaufdiagramm eines Teils des erfindungsgemäßen Verfahrens; Fig. 2 ein schematisiertes Ablaufdiagramm eines weiteren Teils des erfindungsgemäßen Verfahrens;
Fig. 3 eine schematische Darstellung einer zur Durchführung des genannten Verfahrens besonders geeignete Vorrichtung;
Das erfindungsgemäße Verfahren sieht folgende Schritte gemäß Fig.1 vor:
Zunächst erfolgt die Aufnahme digitaler Bilder eines Untersuchungskörpers (Patienten) anhand einer Mehrzahl vorgegebener Positionierungen des Untersuchungskörpers bezüglich des Abbildungssystems durch das Abbildungssystem (S1 a). Dieser Verfahrensschritt wird als Total Body Mapping bezeichnet.
In einem nächsten Verfahrensschritt werden vom Anwender zu den aufgefunden Läsionen mikroskopische Bilder mittels eines digitalen Dermatoskops erstellt (S1 b). Dem Anwender steht es frei, ob er von allen aufgefundenen oder nur von ausgewählten Läsionen mikroskopische Aufnahmen erstellt. Die mikroskopischen Aufnahmen werden durch den vorgebenden Bedienungsablauf den Läsionen in den Total Body Mapping Aufnahmen zugeordnet (Si c).
In einem weiteren Verfahrensschritt (S2) werden die mikroskopischen Aufnahmen an das ein CNN enthaltenes Auswertemodul übergeben, das zum Beispiel auf dem GoogleNet Inception v4 CNN Architektur basiert. Dazu werden die mikroskopischen Bilder wie folgt verarbeitet:
Die Inception Architektur erfordert derzeit eine standardisierte Bereitstellung der Bilder im Format 229 x229 Pixel. Die mikroskopischen Aufnahmen liegen in der Regel in einem rechteckigen Format vor und sind in einer höheren Auflösung aufgenommen. Nachdem die mikroskopischen Aufnahmen von verschiedenen Aufnahmegeräten stammen können, zusätzlich kann die Auflösung der jeweiligen Aufnahme variieren. Die Anpassung des Bildverhältnisses auf ein Verhältnis 1 : 1 für das CNN Modul kann durch Zuschneiden des Bildes auf ein Bildverhältnis 1 : 1 oder durch Auffüllen des rechteckigen Bildbereichs zu einem Bildverhältnis 1 : 1 erfolgen. Dabei ist jedoch nachteilig, dass beim Zuschneiden wichtige Bildinformationen der Läsion verloren gehen könnten, wenn diese nicht zentriert, also bildmittig aufgenommen wurde. Das Auffüllen des Bildbereichs auf ein Bildverhältnis 1 : 1 hat jedoch den Nachteil, dass das Bild noch größer wird und mit Bildinformationen gefüllt wird, die für die Auswertung nicht relevant sind, da nachträglich hinzugefügt. Zum anderen muss die Auflösung anschließend auf 229 x 229 Pixel reduziert werden, so dass also durch das Auffüllen und anschließende Komprimieren noch ein zusätzlicher Qualitätsverlust erfolgt. Bei beiden vorgenannten Bearbeitungsschritten ginge also für die Auswertung wichtige Bildinformation verloren.
Der dieser Erfindung zugrunde liegende Verfahrensschritt sieht daher eine kombinierte Vorgehensweise vor. Zunächst wird das Bild auf ein Bildverhältnis von 1 : 1 aufgefüllt (sog. Padding). Dabei wird das Bild mit schwarzen Pixeln auf ein quadratisches Bildformat aufgefüllt. Anschließend wird dieses Bild zugeschnitten (sog. cropping), so dass sie hinsichtlich Format und Auflösung vom CNN-Auswertemodul übernommen werden können. Es wird also aus einem mikorskopischen Bild je nach Größe und Auflösung eine Vielzahl von Bildzuschnitten mit einem Bildverhältnis 1 :1 und einer Auflösung von 229 x 229 Pixel erstellt. Dadurch muss kein Qualitätsverlust hingenommen werden. Sofern es sich um eine melanozytäre Läsion handelt, die im Bildbereich der mikroskopischen Aufnahme vollständig abgebildet ist, kann mittels automatischer Randerkennung die Läsion aus dem Bild ausgeschnitten werden und in einem neuen Datensatz zwischengespeichert werden. Auf diesen Datensatz werden dann anschließend die vorgenannten Bearbeitungsschritte S2a und S2b durchgeführt mit dem Vorteil, dass dabei weniger Bildinformationen verloren gehen.
Ein CNN besteht aus einer oder mehreren Faltungsschichten, häufig mit einer Sub-Sampling- Schicht, die von einer oder mehreren voll verbundenen Schichten wie in einem herkömmlichen neuronalen Netz gefolgt wird. Das Design eines CNN orientiert sich an der Sehrinde im Gehirn. Die Sehrinde enthält viele Zellen, die dafür verantwortlich sind, Licht in kleinen sich überlappenden Unterbereichen des Gesichtsfelds zu erkennen. Diese werden Rezeptorenfelder genannt. Die Zellen agieren als lokale Filter für den Eingabebereich, während komplexere Zellen größere Rezeptorenfelder haben. Die Faltungsschicht in einem CNN führt die gleiche Funktion aus wie die Zellen in der Sehrinde. Jedes Element einer Schicht empfängt Eingaben von verschiedenen Elementen, die in enger Nachbarschaft in der vorhergehenden Schicht liegen und damit quasi lokale Rezeptorenfelder darstellen. Mit lokalen Rezeptorenfeldern lassen sich elementare Sehmerkmale wie Kanten, Endpunkte, Ecken usw. extrahieren, die dann mittels höherer Schichten kombiniert werden. Im konventionellen Modell der Muster-/Bilderkennung sammelt ein manuell entwickeltes Merkmal-Extraktionswerkzeug relevante Informationen aus der Eingabe und entfernt irrelevante Bestandteile. Dem Extraktionswerkzeug folgt ein trainierbarer Klassifizierer, ein herkömmliches neuronales Netz, das Merkmal-Vektoren in Klassen einteilt. In einem CNN übernehmen dagegen Faltungsschichten die Funktion des Merkmal-Extraktionswerkzeugs. Diese wurden aber nicht manuell entwickelt, sondern ein Trainingsprozess hat die entsprechenden Filtergewichte bestimmt. Die Faltungsschichten können lokale Merkmale extrahieren, da sie die Empfangsfelder der verdeckten Schichten auf den lokalen Bereich einschränken.
Die in dieser Erfindung verwendete CNN Struktur besteht aus 27 Schichten, wobei die erste Schicht das eingegebene Bild und die letzte Schicht die Klassifizierung und ein Vertrauenswert darstellen. In den Schichten dazwischen werden bestimmte Filtermethoden auf verschiedene Pixeleinstellungen angewandt um so viel Informationen aus den Bildern zu ziehen wie möglich. Bei einigen Filtern werden bestimmte Mittelwerte oder Maximalwerte extrahiert. Über die vorletzte Schicht wird das Model generalisiert. Um ein CNN Netzwerk für die Erkennung und Bewertung von Hautläsionen verwenden zu können, muss man das CNN Netzwerk darauf trainieren. CNN Netzwerke funktionieren am besten mit großen Datensätzen. Dazu verwendet man einen sehr gut trainierten Datensatz (über 1 ,2 Mio. Bilder) mit ausgezeichneter Performance hinsichtlich allgemeiner Bilderkennung und passt diesen an die neue Aufgabenstellung zur Erkennung von Hautläsionen an. Dieses Verfahren wird als„transfer learning" bezeichnet. Dazu wird das vorhandene Modell mit angepassten Gewichtungswerten initialisiert, sodass es am Ende dazu in der Lage ist eine Läsion klassifizieren zu können. Damit diese Methode zuverlässig funktioniert, wurden für das spezifische Training des der Erfindung zugrunde liegenden Modells über 25.000 dermatoskopische Bilder von Hautläsionen verwendet. Diese Aufnahmen wurden entweder durch Histologie oder durch Verlaufskontrolle ohne Veränderung als bösartig (malignant) oder gutartig (benign) diagnostiziert.
Diese gemäß S2a und S2b erstellten Bildausschnitte werden nun vom CNN-Auswertemodul übergeben (S3) und hinsichtlich ihrer Malignität ausgewertet (S4a). Dabei werden die Bildausschnitte jeweils mehrmals in das CNN-Auswertemodul in unterschiedlichen Ausrichtungen eingegeben, d.h. in unterschiedlichen Winkeln und Drehungen.
Diese Teilergebnisse werden anschließend zu einem Endergebnis verrechnet (S4b).
Das Endergebnis wird anschließend in Form eines Gewichtungswertes für die betroffene Läsion auf der Ausgabeeinheit für den Anwender angezeigt.
Im Rahmen der Auswertung gemäß S4a und S4b ist es dabei unwesentlich, in welchem Vergrößerungsfaktor die mikroskopischen Aufnahmen erstellt wurden. Es können beispielsweise dermatoskopische Aufnahmen mit 20-facher optischer Vergrößerung genauso ausgewertet werden wie Aufnahmen mit 70-facher Vergrößerung.
Nachdem eine mikroskopische Aufnahme stets einem klinischen Bild zugeordnet ist, wird in einem ergänzenden Verfahrensschritt (siehe Fig.2) aus dem klinischen Bild ein Teilausschnitt durch die Verarbeitungseinheit erstellt und abgespeichert. Die Extraktion erfolgt durch eine Bilderkennungsund Verarbeitungsfunktion (Software) die auf der Verarbeitungseinheit installiert ist. Wird dieser Detailausschnitt anschließend in voller Auflösung angezeigt, so können bereits anhand diesen klinischen Bildes die dermatoskopischen Strukturen der Läsion wie Farbe, Durchmesser, Struktur, Begrenzung gut erkannt werden. Anschließend wird dieser Datensatz zum Trainieren des CNN bereitgestellt, indem er nach dem dafür üblichen Vorgehen in das CNN eingepflegt wird (S6).
Insofern kann das erfindungsgemäße Verfahren auch ergänzend auf klinische Bilder angewendet werden, denn nach entsprechendem Trainingsaufwand kann anhand der klinischen Bilder einer Läsion bereits eine Risikoeinschätzung hinsichtlich der Malignität erfolgen.
Um das Verfahren hinaus weitere Vorteile zu verleihen, ist es besonders wünschenswert, wenn neben der Malignität der Läsion auch ermittelt wird, ob es sich bei der Läsion um ein melanozytäre oder eine nicht- melanozytäre Läsion handelt. Nachdem die Abgrenzung zwischen melanozytären und nicht- melanozytären Läsionen für den Arzt aufwändig ist, bietet eine entsprechende Auswertung durch das erfindungsgemäße Verfahren einen deutlichen Mehrwert für die ärztliche Diagnosefindung.
Unter dem Begriff der melanozytären Läsion versteht man in der Dermatologie ein Hautareal, das sich farblich von seiner Umgebung unterscheidet. Verantwortlich für die meist bräunliche Färbung sind die Pigmentzellen der Haut - die Melanozyten. Diese Läsion wird als Nävus bezeichnet.
Unter den nicht-melanozytären Läsionen werden durch verschiedene Faktoren bedingte Veränderungen der Oberhaut verstanden. Als Ursachen kommen besonders chronische Lichtschädigungen oder die Infektion mit bestimmten Viren in Frage. Gegenüber den melanozytären Läsionen werden sie in einem mehrstufigen Verfahren abgegrenzt. Häufige nicht-melanozytäre Läsionen sind zum Beispiel die aktinische Keratose oder Morbus Bowen, eine Vorstufe des Spinalioms sowie Basalzellkarzinome.
Aktinische Keratosen können dunkel gefärbt sein, so dass der Arzt zunächst von eine melanozytären Läsion ausgehen könnte.
Das Verfahren erfolgt analog zum dem Verfahren zur Ermittlung des Gewichtungswertes hinsichtlich der Malignität. Wie in Fig. 1 dargestellt, werden die mikroskopischen Bilder der Läsion für die Übergabe in das CNN entsprechend aufbereitet und an dieses übergeben. Das CNN ist zuvor anhand von Trainingsdatensätzen mittels Bilder von melanozytären und nicht- melanozytären Läsionen trainiert und kann diesbezüglich einen Gewichtungswert ausgeben.
Die erfindungsgemäße Aufgabe wird durch eine computerisierte Vorrichtung gelöst, welches eine Empfangseinheit zum Empfangen von klinischen Bildern von Hautläsionen sowie die dazugehörigen mikroskopischen Aufnahmen der Hautläsion eines Menschen oder Tieres eingerichtet ist. Ferner verfügt die Vorrichtung über eine Verarbeitungseinheit die in der Weise konfiguriert ist, die empfangenen klinischen Bilder von Hautläsionen sowie der dazugehörigen mikroskopischen Aufnahmen der Hautläsionen zu verarbeiten, d.h. um die Bilder für die Übergabe in ein Convolutional Neural Network (CNN) vorzubereiten. Ferner verfügt die Vorrichtung über eine Bereitstellungseinheit, die in der Weise konfiguriert ist, ein Convolutional Neural Network (CNN) vorzuhalten. Nachdem das Betreiben eines Convolutional Neural Network (CNN) eine erhebliche Rechnerleistung bedarf, ist in der Regel die Bereitstellungseinheit räumlich von der Empfangs- und Verarbeitungseinheit getrennt und die verschiedenen Einheiten sind über eine Netzwerkleitung oder das Internet verbunden. Die Empfangs- und Verarbeitungseinheit kann zum Beispiel aus einem handelsüblichen Total Body Mapping System (z.B. FotoFinder bodystudio ATBM) bestehen, wie es in DE 20 2013 007 374U1 offenbart ist. Es wird dabei eine hochauflösende Digitalkamera (Auflösung 24 MegaPixel oder höher) zum Erstellen der klinischen Bilder der menschlichen Haut von einzelnen Körperregionen verwendet. Die Verarbeitungseinheit nutzt die hochauflösenden Bilder um daraus einzelne Läsionen aus dem klinischen Bild zu extrahieren und dies in ihrer vollen Auflösung für die weitere Verarbeitung bereitzustellen. Die Extraktion erfolgt durch eine Bilderkennungs- und Verarbeitungsfunktion (Software) die auf der Verarbeitungseinheit installiert ist. Wird dieser Detailausschnitt anschließend in voller Auflösung angezeigt, so können bereits anhand diesen klinischen Bildes die dermatoskopischen Strukturen der Läsion wie Farbe, Durchmesser, Struktur, Begrenzung gut erkannt werden. Da sich die Auflösung zukünftiger digitaler Kameras erfahrungsgemäß weiter erhöhen wird, wird sich das Ergebnis dieser Vorgehensweise immer mehr einer dermatoskopischen Aufnahme annähern bzw. dieser entsprechen. Die extrahierten Bilder werden als neuer Datensatz gespeichert und mit der dazugehörigen klinischen Aufnahme verknüpft. Diese beiden Datensätze können dann in das CNN zur weiteren Auswertung übergeben werden. Der Datensatz des klinischen Bildes kann zum Trainieren des CNN verwendet werden, wobei das Ergebnis der Auswertung des zugehörigen mikroskopischen Bildes in Form des Gewichtungswertes mitübergeben wird. Dieser Gewichtungswert definiert also die Einstufung des klinischen Bildes als benign oder malignant.
In einer weiteren vorteilhaften Ausführungsform kann hierbei der histologische Befund für die Läsion mitübergeben werden. Wird eine Läsion vom Arzt als bösartig klassifiziert und operativ entfernt, wird in der Regel im Rahmen einer histologischen Untersuchung die Malignität der Läsion final geklärt. Das Ergebnis der histologischen Untersuchung kann mit dem Datensatz der mikroskopischen Aufnahme und damit auch mit der klinischen Aufnahme der Läsion verknüpft werden und erhöht somit die Validität des Datensatzes als Trainingsdatensatz für das CNN.
Fundstellen a) Dermatologist-Ievel Classification of skin cancer with deep neural networks" Andre Esteva, Brett Kuprel (..) , Nature 542, 1 15-1 18 02 February 2017)
b) Ciresan, D., Meier, U., Schmidhuber, J,:. Multi-column deep neural networks for image classication. In: Conference on Computer Vision and Pattern Recognition, IEEE (2012) 3642-3649;
c) Krizhevsky, A., Sutskever, I., Hinton, G.E.: Imagenet classication with deep convolutional neural networks. In: Advances in Neural Information Processing Systems. Volume 1. (2012) 4;

Claims

Patentansprüche
1. Eine computerisierte Vorrichtung zum Verarbeiten von Bilddaten, wobei die computerisierte Vorrichtung umfasst:
eine Empfangseinheit die konfiguriert ist, klinische Bilder von Hautlasionen sowie die dazugehörigen mikroskopischen Aufnahmen der Hautläsion eines Menschen oder Tieres zu empfangen,
eine Verarbeitungseinheit die konfiguriert ist, die empfangenen klinischen Bilder von Hautläsionen sowie der dazugehörigen mikroskopischen Aufnahmen der Hautläsionen zu verarbeiten und
eine Bereitstellungseinheit die konfiguriert ist, ein Convolutional Neural Network (CNN) zum Verarbeiten der klinischen Bilder von Hautläsionen sowie der dazugehörigen mikroskopischen Aufnahmen der Hautläsionen vorzuhalten und
unter Verwendung eines Convolutional Neural Network (CNN)) Hautläsionen anhand der mikroskopischen Aufnahmen hinsichtlich ihrer Malignität klassifiziert und
einen Gewichtungswert für die Läsion ermittelt und
anschließend die klinischen Bilder der Läsion unter Bezugnahme auf den ermittelten Gewichtungswert der zugehörigen mikroskopischen Aufnahme zum Trainieren des CNN bereitstellt.
2. Eine computerisierte Vorrichtung gemäß Anspruch 1 , dadurch gekennzeichnet, dass
unter Verwendung eines Convolutional Neural Network (CNN) Hautläsionen anhand der mikroskopischen Aufnahmen hinsichtlich ihrer Melanozytät klassifiziert und
einen Gewichtungswert für die Läsion ermittelt wird.
3. Ein Verfahren zum Verarbeiten von Bilddaten, wobei das Verfahren umfasst:
Empfangen einer mikroskopischen Aufnahme der Hautläsion eines Menschen oder Tieres Bereitstellen eines Convolutional Neural Network (CNN) zum Verarbeiten der empfangenen Bilddaten und
Verarbeiten mikroskopische Aufnahme unter Verwendung des Convolutional Neural Network (CNN) zum Klassifizieren der Malignität der Hautläsion und
Errechnen und Ausgabe eines Gewichtungswertes für die Läsion.
4. Ein Verfahren zum Verarbeiten von Bilddaten, wobei das Verfahren umfasst:
Empfangen einer mikroskopischen Aufnahme einer Hautläsion eines Menschen oder Tieres Bereitstellen eines Convolutional Neural Network (CNN) zum Verarbeiten der empfangenen Bilddaten und Verarbeiten der empfangenen Bilddaten unter Verwendung des Convolutional Neural Network (CNN) zur Bestimmung der Melanozytät der Lasion. und
Errechnen und Ausgabe eines Gewichtungswertes für die Läsion.
5. Ein Verfahren gemäß Anspruch 3, wobei das Verfahren umfasst:
Empfangen eines vergrößerten Ausschnitts des klinischen Bildes der Lasion sowie der dazugehörigen mikroskopischen Aufnahme der Hautläsion;
Bereitstellen eines Convolutional Neural Network (CNN) zum parallelen Verarbeiten der empfangenen und verbundenen Bilddaten sowie
Trainieren des Convolutional Neural Network (CNN) anhand des klinischen Bildes und dem dazugehörigen mikroskopischen Bildes sowie des ermittelten Gewichtungswertes.
6. Ein Verfahren nach den Ansprüchen 3, 4 und 5 wobei das Verfahren umfasst:
Auffüllen des in das Convolutional Neural Network (CNN) zu übergebende Bild auf ein Bildverhältnis von 1 : 1 (sog. Padding) und
Zuschneiden des Bildes (sog. cropping) in Teilbilder mit einer für die Übergabe in ein Convolutional Neural Network (CNN) geeignete Auflösung.
7. Ein Verfahren nach Anspruch 6 wobei das Verfahren umfasst:
Zuschneiden des Bildes (sog. cropping) in Teilbilder mit einer Auflösung von 223 x 223 Pixel.
8. Verfahren nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass der gewichtete Gesamtwert in der Verarbeitungseinheit gespeichert wird.
PCT/DE2018/000325 2017-11-09 2018-11-09 Verfahren zur auswertung des hautbildes eines menschen im rahmen der hautkrebs- vorsorgeuntersuchung sowie vorrichtung zu dessen betrieb Ceased WO2019091509A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017010397.6A DE102017010397A1 (de) 2017-11-09 2017-11-09 Verfahren zur Auswertung des Hautbildes eines Menschen im Rahmen der Hautkrebs-Vorsorgeuntersuchung sowie Vorrichtung zu dessen Betrieb
DE102017010397.6 2017-11-09

Publications (1)

Publication Number Publication Date
WO2019091509A1 true WO2019091509A1 (de) 2019-05-16

Family

ID=65228284

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2018/000325 Ceased WO2019091509A1 (de) 2017-11-09 2018-11-09 Verfahren zur auswertung des hautbildes eines menschen im rahmen der hautkrebs- vorsorgeuntersuchung sowie vorrichtung zu dessen betrieb

Country Status (2)

Country Link
DE (1) DE102017010397A1 (de)
WO (1) WO2019091509A1 (de)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110399916A (zh) * 2019-07-24 2019-11-01 淮阴工学院 一种基于图像增强和Inception网络的皮肤癌图像分类方法
CN112017787A (zh) * 2020-08-17 2020-12-01 杭州依图医疗技术有限公司 医疗信息ai平台及计算设备
CN112669959A (zh) * 2020-12-17 2021-04-16 中国医学科学院皮肤病医院(中国医学科学院皮肤病研究所) 一种基于图像的白癜风病情自动评估方法
CN113057593A (zh) * 2021-03-18 2021-07-02 杭州睿胜软件有限公司 图像识别方法、可读存储介质及电子设备
US12118723B1 (en) * 2023-06-21 2024-10-15 BelleTorus Corporation Compute system with image based skin cancer detection mechanism and method of operation thereof

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3141644A1 (en) 2019-07-01 2021-01-07 Digital Diagnostics Inc. Diagnosing skin conditions using machine-learned models
CN111444960A (zh) * 2020-03-26 2020-07-24 上海交通大学 基于多模态数据输入的皮肤病图像分类系统
DE102023106118A1 (de) 2023-03-13 2024-09-19 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung eines Fahrzeugs und Verfahren zum Erkennen einer Hauterkrankung eines Fahrzeuginsassen

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050171439A1 (en) * 2004-01-20 2005-08-04 Michael Maschke Method and device for examining the skin
CA2206273C (en) * 1994-12-01 2006-04-04 Artner, Norbert Skin examination device
US7894651B2 (en) 2007-03-02 2011-02-22 Mela Sciences, Inc. Quantitative analysis of skin characteristics
WO2011087807A2 (en) 2009-12-22 2011-07-21 Health Discovery Corporation System and method for remote melanoma screening
US20120008838A1 (en) * 2000-08-07 2012-01-12 Health Discovery Corporation System and method for remote melanoma screening
WO2013103475A2 (en) * 2011-12-09 2013-07-11 Massachusetts Institute Of Technology Portable optical fiber probe-based spectroscopic scanner for rapid cancer diagnosis
DE202013007374U1 (de) 2013-08-16 2013-11-05 FotoFinder Systems GmbH Bildsystem zur Ganzköperfotografie und Auswertung des Hautbildes eines Menschen
US20140050416A1 (en) * 2011-03-31 2014-02-20 Optos Plc Identifying and correcting anomalies in an optical image
US9767557B1 (en) * 2016-06-23 2017-09-19 Siemens Healthcare Gmbh Method and system for vascular disease detection using recurrent neural networks
US20170287134A1 (en) * 2016-03-31 2017-10-05 International Business Machines Corporation Annotation of skin image using learned feature

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9760990B2 (en) * 2014-12-14 2017-09-12 International Business Machines Corporation Cloud-based infrastructure for feedback-driven training and image recognition
US9750450B2 (en) * 2015-09-18 2017-09-05 Htc Corporation Method, electronic apparatus, and computer readable medium of constructing classifier for skin-infection detection

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2206273C (en) * 1994-12-01 2006-04-04 Artner, Norbert Skin examination device
US20120008838A1 (en) * 2000-08-07 2012-01-12 Health Discovery Corporation System and method for remote melanoma screening
US20050171439A1 (en) * 2004-01-20 2005-08-04 Michael Maschke Method and device for examining the skin
US7894651B2 (en) 2007-03-02 2011-02-22 Mela Sciences, Inc. Quantitative analysis of skin characteristics
WO2011087807A2 (en) 2009-12-22 2011-07-21 Health Discovery Corporation System and method for remote melanoma screening
US20140050416A1 (en) * 2011-03-31 2014-02-20 Optos Plc Identifying and correcting anomalies in an optical image
WO2013103475A2 (en) * 2011-12-09 2013-07-11 Massachusetts Institute Of Technology Portable optical fiber probe-based spectroscopic scanner for rapid cancer diagnosis
DE202013007374U1 (de) 2013-08-16 2013-11-05 FotoFinder Systems GmbH Bildsystem zur Ganzköperfotografie und Auswertung des Hautbildes eines Menschen
US20170287134A1 (en) * 2016-03-31 2017-10-05 International Business Machines Corporation Annotation of skin image using learned feature
US9767557B1 (en) * 2016-06-23 2017-09-19 Siemens Healthcare Gmbh Method and system for vascular disease detection using recurrent neural networks

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ANDRE ESTEVA ET AL: "Dermatologist-level classification of skin cancer with deep neural networks", NATURE, vol. 542, no. 7639, 25 January 2017 (2017-01-25), London, pages 115 - 118, XP055560219, ISSN: 0028-0836, DOI: 10.1038/nature21056 *
ANDRE ESTEVA; BRETT KUPREL, NATURE, vol. 542, 2 February 2017 (2017-02-02), pages 115 - 118
CIRESAN, D.; MEIER, U.; SCHMIDHUBER, J.: "Multi-column deep neural networks for image classication", CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, 2012, pages 3642 - 3649, XP032232509, DOI: doi:10.1109/CVPR.2012.6248110
KRIZHEVSKY, A.; SUTSKEVER, I.; HINTON, G.E.: "Imagenet classication with deep convolutional neural networks", ADVANCES IN NEURAL , INFORMATION PROCESSING SYSTEMS, vol. 1, 2012, pages 4

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110399916A (zh) * 2019-07-24 2019-11-01 淮阴工学院 一种基于图像增强和Inception网络的皮肤癌图像分类方法
CN112017787A (zh) * 2020-08-17 2020-12-01 杭州依图医疗技术有限公司 医疗信息ai平台及计算设备
CN112669959A (zh) * 2020-12-17 2021-04-16 中国医学科学院皮肤病医院(中国医学科学院皮肤病研究所) 一种基于图像的白癜风病情自动评估方法
CN112669959B (zh) * 2020-12-17 2024-03-29 中国医学科学院皮肤病医院(中国医学科学院皮肤病研究所) 一种基于图像的白癜风病情自动评估方法
CN113057593A (zh) * 2021-03-18 2021-07-02 杭州睿胜软件有限公司 图像识别方法、可读存储介质及电子设备
US12118723B1 (en) * 2023-06-21 2024-10-15 BelleTorus Corporation Compute system with image based skin cancer detection mechanism and method of operation thereof

Also Published As

Publication number Publication date
DE102017010397A1 (de) 2019-05-09

Similar Documents

Publication Publication Date Title
WO2019091509A1 (de) Verfahren zur auswertung des hautbildes eines menschen im rahmen der hautkrebs- vorsorgeuntersuchung sowie vorrichtung zu dessen betrieb
DE69630935T2 (de) Bilverarbeitungsverfahren und -vorrichtung zur automatischen Erfassung von Bereichen eines vorbestimmten Krebstyps in einem Intensitätsbild
DE60212917T2 (de) Vorrichtung zur Berechnung eines Index von örtlichen Blutflüssen
DE10321722A1 (de) Computergestützte Diagnose von Mehrfachenergiebildern
DE102011013505A1 (de) Verfahren und System zur automatischen Erkennung und Klassifizierung von Koronarstenosen in Herz-CT-Volumina
DE102023203884A1 (de) Medizinbilddiagnosehilfsvorrichtung und Verfahren zum Erzeugen und Visualisieren von Hilfsinformationen auf der Basis von Verteilungen von Signalintensitäten in Medizinbildern
DE102022112136A1 (de) Medizinisches bildanalysegerät, verfahren und medizinisches bild, visualisierungsgerät und verfahren
DE102009027448A1 (de) Wissensbasierte Segmentierung schwächungsrelevanter Regionen des Kopfes
DE102004061435A1 (de) Verfahren und Vorrichtung zur Registrierung von Lungenbilddaten
WO2020173516A1 (de) Verfahren zur evaluierung von hautläsionen unter verwendung künstlicher intelligenz
EP3928680B1 (de) Verfahren zur endoskopischen bildgebung, endoskopisches bildgebungssystem und softwareprogrammprodukt
DE10109586A1 (de) Verfahren und Vorrichtung zur Bildverarbeitung von Röntgenaufnahmen
DE102009032442B4 (de) Verfahren und Vorrichtung zur Nachbearbeitung von mittels eines bildgebenden Systems erfassten Messwerten
DE202023103114U1 (de) Ein IoT-fähiges System zur Erkennung von Hirntumoren, das ein Kapselnetzwerk und einen Aufmerksamkeitsmechanismus nutzt
DE102010028382A1 (de) Verfahren und Computersystem zur Bearbeitung tomographischer Bilddaten aus einer Röntgen-CT-Untersuchung eines Untersuchungsobjektes
DE102021107075A1 (de) Verfahren, System und Softwareprogrammprodukt zum Erstellen von Trainingsdaten für endoskopische Anwendungen
DE202023101413U1 (de) Ein System zur Diagnose der hypertrophen Kardiomyopathie mit Deep-Learning-Techniken
DE102005048524A1 (de) Verfahren und System zur Erkennung anatomischer Formen in einem CAD-System
DE102021204020B3 (de) Verfahren zum Übertragen einer Mehrzahl von medizinischen Bildern
EP3155588B1 (de) Ganzkörperbildaufnahme- und bildverarbeitungssystem sowie verfahren zu dessen betrieb
DE19726226C2 (de) Verfahren zum automatisierten Erkennen von Strukturen in Schnitten durch biologische Zellen oder biologisches Gewebe
DE102014014814A1 (de) Verfahren zur Detektion und Klassifikation von AMD anhand mindestens zweier Modalitäten des betreffenden Auges
DE102005022156A1 (de) Verfahren und Vorrichtung zum Einstufen von Pixeln in medizinischer Bildgebung
DE102023118246B4 (de) Verfahren zur Analyse eines quasiperiodischen biologischen Signals
DE202022106114U1 (de) Auf Deep Learning basierendes System zur Erkennung der Alzheimer-Krankheit

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18839667

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 18839667

Country of ref document: EP

Kind code of ref document: A1