[go: up one dir, main page]

WO2019091509A1 - Method for analyzing the skin appearance of a human being in the context of skin cancer screening and apparatus for carrying out same - Google Patents

Method for analyzing the skin appearance of a human being in the context of skin cancer screening and apparatus for carrying out same Download PDF

Info

Publication number
WO2019091509A1
WO2019091509A1 PCT/DE2018/000325 DE2018000325W WO2019091509A1 WO 2019091509 A1 WO2019091509 A1 WO 2019091509A1 DE 2018000325 W DE2018000325 W DE 2018000325W WO 2019091509 A1 WO2019091509 A1 WO 2019091509A1
Authority
WO
WIPO (PCT)
Prior art keywords
cnn
image
images
lesion
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/DE2018/000325
Other languages
German (de)
French (fr)
Inventor
Andreas Mayer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FotoFinder Systems GmbH
Original Assignee
FotoFinder Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FotoFinder Systems GmbH filed Critical FotoFinder Systems GmbH
Publication of WO2019091509A1 publication Critical patent/WO2019091509A1/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the invention relates to a method for examining the skin of a subject, in particular in the context of a skin cancer screening.
  • the invention further relates to an apparatus for carrying out the method.
  • the typical method for the early detection of malignant melanomas is the monitoring of suspicious naevi over time using digital reflected light microscopy. Images are taken with a special video camera and dermatoscopy attachment (eg FotoFinder medicam®) in 20-70x magnification and stored in a database. Following-up monitoring allows early identification of developing melanomas and removes them at a stage where the chances of recovery are considered high. By comparing repeat exposures at intervals of three to six months, changes are diagnosed in time to specifically excise suspicious lesions. The evaluation of the lesions is the sole responsibility of the dermatologist and depends on his expertise. On average, dermatologists achieve a sensitivity of approx. 80% and a specificity of approx. 80% in early detection of skin cancer.
  • the "sensitivity" (true positive rate of a test) refers to the proportion of test-positive persons among all patients in a sample, d. H. the likelihood of diagnosing the patient as ill with a diagnostic test. A high sensitivity is sought when a disease with high security is to be excluded.
  • the "specificity" (true-negative rate of a test) describes the proportion of test-negative persons among all non-sufferers of a random sample, ie the probability with one diagnostic test to correctly identify non-sufferers. A high specificity is sought if a disease is to be confirmed with great certainty.
  • the "Tübinger Mole Analyzer” (developed under the direction of the University Skin Clinic Tübingen) is a tool to underpin the diagnosis of the dermatologist.Microscopic images of lesions are evaluated according to certain image recognition parameters and these values are compared with values of a reference database (Score) gives the dermatologist further clues to establishing his final diagnosis.
  • Score reference database
  • the image analysis software uses a filter to remove any image interference caused by the accidental absorption of small air bubbles or caused by hair.
  • the next step is a fully automated edge search.
  • the software describes the lesion as precisely as possible using a specially developed procedure, taking into account gradients and changes in brightness.
  • the most important image-analytical parameters were investigated, which enable a distinction between melanoma and birthmark.
  • probability statements can be used to diagnose the melanoma.
  • Two models were adapted: one for small lesions that are fully imaged, the other for large lesions protruding beyond the edge of the image.
  • the sensitivity is 80 percent, the specificity 82 percent; Sensitivity is 88 percent and specificity 83 percent for the 232 large lesions.
  • the system achieves approximately the same diagnostic quality as that of a specialist.
  • this expert system is disadvantageous in that the use of the expert system is only validated for one recording medium (camera). Although lesions recorded with different camera models (video camera, digital camera, etc.) can also be evaluated, the results are not validated.
  • US Pat. No. 7,994,651 discloses a device and a method that by means of a special computer-aided imaging system (MelaFind®) can for the first time non-invasively record, display and evaluate data of a conspicuous liver spot from deeper skin layers of up to 2.5 mm.
  • MelaFind® computer-aided imaging system
  • the multispectral use of polarized light (10 different wavelengths from 430 to 950 nm) makes it possible to detect conspicuous growth patterns below the skin surface extremely precisely (resolution up to 20 pm) and the degree of such To assess conspicuousness extremely precisely (sensitivity of 98.3%).
  • sensitivity of 98.3% sensitivity of 98.3%.
  • an approval study for the US market found that the specificity is relatively low, ie the system often classifies lesions as malignant, which later turned out to be harmless in the histological evaluation. This system offers neither the physician nor the patient added value in skin cancer screening, as almost every birthmark is classified as a risk mother.
  • WO / 2011/087807 discloses a system and method for diagnosing melanoma from digital images taken by a remote user with a smartphone or digital camera and transmitted to an image analysis server communicating with a distributed network.
  • the image analysis server includes a trained learning machine for classifying images of malignant and benign skin lesions.
  • the user-provided image is pre-processed to extract size, shape, and color. These features are then processed with the trained learning machine to classify the suspicious lesion.
  • the classification result is post-processed and a risk score is determined, which is transmitted to the remote user.
  • a database associated with the server contains geographic matching reference information, i.
  • the remote user is provided with contact information from doctors for the treatment of skin cancer.
  • Convolutional Neural Network deep convolutional neural network
  • Typical models of a Convolutional Neural Network are QuocNet, AlexNet, Inception (GoogLeNet), BN-lnception-v2. Research has shown steady progress in image processing by validating results against ImageNet.
  • ImageNet is a database of images used for research projects. Each picture is assigned to a noun. The nouns are hierarchically arranged by the Word Net project. Each noun has an average of more than 500 images.
  • ImageNet has been used to train Convolutional Neural Networks (CNN) since its release in 2009 at the IEEE Conference on Computer Vision and Pattern Recognition, and represents an academic benchmark for image recognition.
  • CNN Convolutional Neural Network
  • the aim is to work with clinical images of the skin to determine the malignancy of a lesion with the help of a CNN.
  • the disadvantage here is that the available image material on clinical images is often poorly and not histologically confirmed in terms of their quality, i. to train a CNN is only partially suitable.
  • a further object of the invention is to provide a device which is particularly suitable for carrying out said method.
  • the advantages achieved by the invention are in particular that a rule-independent assessment of lesions can be based on the microscopic and clinical images that are created in the daily dermatological practice in the context of digital skin cancer screening.
  • the invention is independent of the digital recording media, image formats and image resolutions used.
  • the combination of microscopic and clinical images as part of an evaluation using a Convolutional Neural Network (CNN) brings the evaluation process as such to a new level and enables a parallel evaluation or a single evaluation based on the microscopic image or the clinical picture.
  • CNN Convolutional Neural Network
  • FIG. 1 is a schematic flow diagram of part of the method according to the invention
  • FIG. 2 shows a schematic flow diagram of a further part of the method according to the invention
  • FIG. 1 is a schematic flow diagram of part of the method according to the invention
  • FIG. 2 shows a schematic flow diagram of a further part of the method according to the invention
  • FIG. 1 is a schematic flow diagram of part of the method according to the invention
  • FIG. 2 shows a schematic flow diagram of a further part of the method according to the invention
  • FIG. 3 shows a schematic representation of a device which is particularly suitable for carrying out said method
  • the method according to the invention provides the following steps according to FIG. 1:
  • microscopic images are created by the user to the lesions found using a digital dermatoscope (S1 b). It is up to the user whether he creates microscopic images of all or only selected lesions.
  • the microscopic images are assigned to the lesions in the total body mapping images by the prescriptive procedure (Si c).
  • the microscopic images are transferred to the evaluation module containing a CNN, which is based, for example, on the GoogleNet Inception v4 CNN architecture.
  • the microscopic images are processed as follows:
  • the Inception architecture currently requires standardized delivery of 229 x 229 pixel images.
  • the microscopic images are usually in a rectangular format and are recorded in a higher resolution. After the microscopic images can come from different recording devices, in addition, the resolution of each recording may vary. Adjusting the image ratio to a 1: 1 ratio for the CNN module can be achieved by cropping the image to a 1: 1 aspect ratio or by filling the rectangular image area to a 1: 1 aspect ratio.
  • the method step on which this invention is based therefore provides a combined procedure.
  • the image is filled to an image ratio of 1: 1 (so-called padding).
  • the image is filled with black pixels on a square image format.
  • this image is cropped (so-called cropping), so that they can be taken over in terms of format and resolution of the CNN evaluation module.
  • cropping cropping
  • a large number of image crops with a picture ratio of 1: 1 and a resolution of 229 x 229 pixels are created from a microscopic image. As a result, no loss of quality must be accepted.
  • the lesion can be excised from the image by means of automatic edge recognition and buffered in a new data set.
  • the aforementioned processing steps S2a and S2b are then subsequently carried out on this data record, with the advantage that less image information is lost in the process.
  • a CNN consists of one or more convolutional layers, often with a sub-sampling layer followed by one or more fully connected layers as in a conventional neural network.
  • the design of a CNN is based on the visual cortex in the brain.
  • the visual cortex contains many cells responsible for detecting light in small overlapping subregions of the visual field. These are called receptor fields.
  • the cells act as local filters for the input area, while more complex cells have larger receptor fields.
  • the folding layer in a CNN performs the same function as the cells in the visual cortex.
  • Each element of a layer receives inputs from different elements that are in close proximity to the previous layer and thus are quasi-local receptor fields. With local receptor fields, elementary traits such as edges, endpoints, corners, etc. can be extracted, which are then combined by means of higher layers.
  • a manually developed feature extraction tool collects relevant information from the input and removes irrelevant components.
  • the extraction tool is followed by a trainable classifier, a conventional neural network, which classifies feature vectors into classes.
  • trainable classifier a conventional neural network
  • folding layers assume the function of the feature extraction tool.
  • the CNN structure used in this invention consists of 27 layers, the first layer representing the input image and the last layer the classification and a confidence value.
  • certain filter methods are applied to different pixel settings to extract as much information from the images as possible. Some filters extract certain averages or maximums.
  • the model is generalized over the penultimate layer.
  • CNN networks work best with large datasets. For this purpose, a very well-trained data set (over 1.2 million images) with excellent performance with regard to general image recognition is used and adapts to the new task for the detection of skin lesions.
  • transfer learning This method is referred to as "transfer learning.”
  • the existing model is initialized with adjusted weighting values, so that it is finally able to classify a lesion.
  • the specific training of the invention was used Over 25,000 dermatoscopic images of skin lesions were used, which were diagnosed as either malignant or benign by histology or by follow-up without change.
  • image sections produced according to S2a and S2b are now transferred by the CNN evaluation module (S3) and evaluated with regard to their malignancy (S4a).
  • the image sections are in each case entered several times into the CNN evaluation module in different orientations, i. in different angles and rotations.
  • the final result is then displayed in the form of a weight value for the affected lesion on the output unit for the user.
  • a microscopic image is always associated with a clinical image
  • a partial detail is created and stored by the processing unit in a supplementary method step (see FIG. 2) from the clinical image.
  • the extraction is performed by an image recognition and processing function (software) installed on the processing unit. If this detail is subsequently displayed in full resolution, the dermoscopic structures of the lesion, such as color, diameter, structure, and limitation, can be easily recognized on the basis of this clinical image. Subsequently, this record is provided for training the CNN by being entered into the CNN according to the usual procedure (S6).
  • inventive method can also be used in addition to clinical images, because after appropriate training effort based on the clinical pictures of a lesion already made a risk assessment in terms of malignancy.
  • the lesion is a melanocytic or a non-melanocytic lesion. Having the demarcation between melanocytic and non-melanocytic lesions is expensive for the doctor, a corresponding evaluation by the method according to the invention provides a clear added value for the medical diagnosis.
  • melanocytic lesion refers to a skin area that differs in color from its surroundings. responsible for the mostly brownish color are the pigment cells of the skin - the melanocytes. This lesion is called a nevus.
  • Non-melanocytic lesions are understood to be due to various factors related to changes in the epidermis. The causes are especially chronic light damage or infection with certain viruses in question. Compared to the melanocytic lesions, they are delineated in a multi-step procedure. Common non-melanocytic lesions include, for example, actinic keratosis or Bowen's disease, a precursor to the spinal biome, and basal cell carcinomas.
  • Actinic keratoses may be dark in color, so the doctor may initially assume a melanocytic lesion.
  • the method is analogous to the method for determining the weighting value in terms of malignancy.
  • the microscopic images of the lesion are prepared for transfer to the CNN and transferred to it.
  • the CNN has previously been trained on the basis of training data sets by means of images of melanocytic and non-melanocytic lesions and can issue a weighting value in this regard.
  • the object according to the invention is achieved by a computerized device which is equipped with a receiving unit for receiving clinical images of skin lesions as well as the associated microscopic images of the skin lesion of a human or animal. Further, the device has a processing unit configured to process the received clinical images of skin lesions and the associated microscopic images of the skin lesions, ie to prepare the images for delivery to a Convolutional Neural Network (CNN). Further, the device has a provisioning unit configured to hold a Convolutional Neural Network (CNN). Since the operation of a Convolutional Neural Network (CNN) requires significant computing power, the provisioning unit is typically spatially separate from the receiving and processing unit and the various units are connected via a network line or the Internet.
  • CNN Convolutional Neural Network
  • the receiving and processing unit can for example consist of a commercially available Total Body Mapping System (eg FotoFinder bodystudio ATBM), as disclosed in DE 20 2013 007 374U1. It uses a high-resolution digital camera (resolution 24 megapixels or higher) to create the clinical images of the human skin of individual body regions.
  • the processing unit uses the high-resolution images to extract individual lesions from the clinical image and provide them in their full resolution for further processing. The extraction is performed by an image recognition and processing function (software) installed on the processing unit. If this detail is then displayed in full resolution, you can already use this clinical picture of the dermoscopic structures of the lesion such as color, diameter, structure, limitation are well recognized.
  • the extracted images are saved as a new record and linked to the associated clinical record. These two data records can then be transferred to the CNN for further evaluation.
  • the data set of the clinical image can be used to train the CNN, the result of the evaluation of the associated microscopic image being transmitted in the form of the weighting value.
  • This weighting value defines the classification of the clinical picture as benign or malignant.
  • the histological findings for the lesion can also be transferred. If a lesion is classified by the doctor as malignant and surgically removed, the malignancy of the lesion is usually clarified as part of a histological examination. The result of the histological examination can be linked to the record of the microscopic image and thus also to the clinical recording of the lesion, thus increasing the validity of the data set as a training dataset for the CNN.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

The invention relates to an improved method for examining the skin by means of microscopic images while using a convolutional neural network (CNN). The aim of the invention is also to refine said method by additionally analyzing clinical images together with the microscopic images. Another aim of the invention is to devise an apparatus which is particularly suitable for carrying out said method. The advantages obtained by the invention are, in particular, that a rule-independent analysis of lesions can be carried out on the basis of the microscopic and clinical images that are produced in daily dermatological practice in the context of digital skin cancer screening. The invention is independent of the digital recording media, image formats and image resolutions used. The combination of microscopic and clinical images in the context of an analysis by means of a convolutional neural network (CNN) takes the analytical process as such to a new level and allows parallel analysis or individual analysis using the microscopic image or the clinical image.

Description

Beschreibung  description

Verfahren zur Auswertung des Hautbildes eines Menschen im Rahmen der Hautkrebs- Vorsorgeuntersuchung sowie Vorrichtung zu dessen Betrieb Method for evaluating the skin image of a human in the context of skin cancer screening and device for its operation

Die Erfindung bezieht sich auf ein Verfahren zur Untersuchung der Haut eines Probanden, insbesondere im Rahmen einer Hautkrebs-Vorsorgeuntersuchung. Die Erfindung bezieht sich des Weiteren auf eine Vorrichtung zur Durchführung des Verfahrens. The invention relates to a method for examining the skin of a subject, in particular in the context of a skin cancer screening. The invention further relates to an apparatus for carrying out the method.

Hinsichtlich der Häufigkeit von Hautkrebs-Erkrankungen ist in jüngerer Zeit ein deutlicher Anstieg festzustellen. Ursache hierfür ist insbesondere der Trend, sich vermehrt intensiver Sonnenbestrahlung auszusetzen. Die häufigste tödlich verlaufende Hauterkrankung ist das sogenannte maligne Melanom. Bei einer frühzeitigen Diagnose der Hauterkrankung und einer sofort eingeleiteten Therapie, die in der Regel die chirurgische Entfernung des erkrankten Gewebes umfasst, bestehen gute Heilungsaussichten. Problematisch ist jedoch die frühzeitige Erkennung. Die modernsten Methoden zur Früherkennung maligner Melanome sind die digitale Auflichtmikroskopie sowie die Analyse einzelner Naevi und die Analyse des gesamten Hautbildes zum Aufzeigen neuer und veränderter Läsionen, das sogenannte Total Body Mapping. Eine Kombination aus Auflichtmikroskopie und Total Body Mapping stellt den Goldstandard der Hautkrebsvorsorge dar und dient dazu, Veränderungen pigmentierter Hautläsionen noch frühzeitiger festzustellen und unnötige Exzisionen zu vermeiden. There has recently been a significant increase in the incidence of skin cancer. The reason for this is in particular the trend to expose oneself increasingly to intensive sunshine. The most common fatal skin disease is the so-called malignant melanoma. Early diagnosis of skin disease and immediate therapy, which usually involves the surgical removal of the diseased tissue, provides good prospects for cure. However, the problem is the early detection. The most modern methods for the early detection of malignant melanomas are the digital reflected light microscopy as well as the analysis of individual nevi and the analysis of the entire skin image to show new and changed lesions, the so-called Total Body Mapping. A combination of reflected-light microscopy and total body mapping represents the gold standard of skin cancer screening and serves to detect changes in pigmented skin lesions even earlier and to avoid unnecessary excisions.

Die typische Methode zur Früherkennung maligner Melanome ist die Überwachung verdächtiger Naevi im Zeitablauf mit Hilfe der digitalen Auflichtmikroskopie. Dabei werden mit einer speziellen Videokamera und Dermatoskopievorsatz (z. B. FotoFinder medicam®) Bilder in 20-70facher Vergrößerung gemacht und in einer Datenbank abgespeichert. Durch die Verlaufskontrolle können entstehende Melanome frühzeitig erkannt und in einem Stadium entfernt werden, in dem die Heilungschancen als hoch gelten. Durch den Vergleich von Wiederholungsaufnahmen in Abständen von drei bis sechs Monaten werden Veränderungen rechtzeitig diagnostiziert, um suspekte Läsionen gezielt zu exzidieren. Die Beurteilung der Läsionen liegt in der alleinigen Verantwortung des Dermatologen uns ist von dessen Expertise abhängig. Im Durchschnitt erreichen Dermatologen bei der Hautkrebsfrüherkennung eine Sensitivität von ca. 80% und einer Spezifität von ca. 80%. The typical method for the early detection of malignant melanomas is the monitoring of suspicious naevi over time using digital reflected light microscopy. Images are taken with a special video camera and dermatoscopy attachment (eg FotoFinder medicam®) in 20-70x magnification and stored in a database. Follow-up monitoring allows early identification of developing melanomas and removes them at a stage where the chances of recovery are considered high. By comparing repeat exposures at intervals of three to six months, changes are diagnosed in time to specifically excise suspicious lesions. The evaluation of the lesions is the sole responsibility of the dermatologist and depends on his expertise. On average, dermatologists achieve a sensitivity of approx. 80% and a specificity of approx. 80% in early detection of skin cancer.

Die "Sensitivität" (richtig positive Rate eines Tests) bezeichnet den Anteil der test-positiven Personen unter allen Erkrankten einer Stichprobe, d. h. die Wahrscheinlichkeit, mit einem diagnostischen Test die Kranken auch als krank zu identifizieren. Eine hohe Sensitivität wird angestrebt, wenn eine Erkrankung mit hoher Sicherheit ausgeschlossen werden soll. The "sensitivity" (true positive rate of a test) refers to the proportion of test-positive persons among all patients in a sample, d. H. the likelihood of diagnosing the patient as ill with a diagnostic test. A high sensitivity is sought when a disease with high security is to be excluded.

Die "Spezifität" (richtig-negative Rate eines Tests) beschreibt den Anteil der Test-negativen Personen unter allen Nicht-Erkrankten einer Stichprobe, d. h. die Wahrscheinlichkeit, mit einem diagnostischen Test Nicht-Erkrankte korrekt zu identifizieren. Eine hohe Spezifität wird angestrebt, wenn eine Erkrankung mit großer Sicherheit bestätigt werden soll. The "specificity" (true-negative rate of a test) describes the proportion of test-negative persons among all non-sufferers of a random sample, ie the probability with one diagnostic test to correctly identify non-sufferers. A high specificity is sought if a disease is to be confirmed with great certainty.

Für die Unterscheidung zwischen gutartigen Muttermalen und dem malignen Melanom ist eine jahrelange klinische Erfahrung erforderlich. Selbst Spezialisten können anhand des klinischen Bildes nicht immer sicher entscheiden, ob es sich um ein Melanom oder ein auffälliges Muttermal handelt. Zur auflichtmikroskopischen Bewertung von Muttermalen wurden in den letzten Jahren einige unterschiedliche Scores ( ABCD Regel, 7 Point Rule, 3 Point Rule) erarbeitet, die für die Diagnose von Melanomen hilfreich sein sollen - insbesondere für Dermatologen in der Ausbildung, für auf diesem Gebiet weniger erfahrene Dermatologen und für schwierig zu diagnostizierende Läsionen. Die Bewertung von Muttermalen hinsichtlich ihrer Malignität wird ferner durch zahlreiche computergestützte Expertensysteme unterstützt. So ist zum Beispiel der„Tübinger Mole Analyzer" (entwickelt unter der Leitung der Universitätshautklinik Tübingen) ein Hilfsmittel zur Untermauerung der Diagnose des Hautarztes. Mikroskopische Aufnahmen von Läsionen werden nach bestimmten Bilderkennungsparametern ausgewertet und diese Werte mit Werten einer Referenzdatenbank verglichen. Ein daraus ermittelter Gesamtwert (Score) gibt dem Dermatologen weitere Anhaltspunkte zur Festlegung seiner finalen Diagnose.  The distinction between benign birthmarks and malignant melanoma requires years of clinical experience. Even specialists can not always decide with certainty on the basis of the clinical picture, whether it is a melanoma or a conspicuous birthmark. For the light microscopic assessment of birthmarks, a number of different scores (ABCD Rule, 7 Point Rule, 3 Point Rule) have been developed in recent years to assist in the diagnosis of melanoma, especially for dermatologists in training, and less experienced in this field Dermatologists and difficult to diagnose lesions. The evaluation of birthmarks for their malignancy is further supported by numerous computer-assisted expert systems. For example, the "Tübinger Mole Analyzer" (developed under the direction of the University Skin Clinic Tübingen) is a tool to underpin the diagnosis of the dermatologist.Microscopic images of lesions are evaluated according to certain image recognition parameters and these values are compared with values of a reference database (Score) gives the dermatologist further clues to establishing his final diagnosis.

Die Bildanalyse-Software entfernt zunächst mittels eines Filters Bildstörungen, die etwa durch die versehentliche Aufnahme von kleinen Luftbläschen entstehen oder durch Haare verursacht werden. Im nächsten Schritt erfolgt eine vollautomatisierte Randsuche. Dabei beschreibt die Software über ein eigens entwickeltes Verfahren unter Berücksichtigung von Gradienten und Helligkeitsveränderungen möglichst exakt die Läsion. In einer an der Universitäts-Hautklinik Tübingen eigens dafür durchgeführten Studie wurden die wichtigsten bildanalytischen Parameter untersucht, die eine Unterscheidung zwischen Melanom und Muttermal ermöglichen. Mit einem komplexen Modell, in das die Größe der Läsion, spezielle Farbwerte und ein Texturmaß eingehen, lassen sich Wahrscheinlichkeitsaussagen zur Melanomdiagnose machen. Es wurden zwei Modelle angepasst: eines für kleine Läsionen, die vollständig abgebildet werden, das andere für über den Rand des Bildes hinausragende, große Läsionen. Für 605 kleine Läsionen liegt die Sensitivität bei 80 Prozent, die Spezifität bei 82 Prozent; für die 232 großen Läsionen beträgt die Sensitivität 88 Prozent und die Spezifität 83 Prozent. Damit erreicht das System in etwa die gleiche Diagnosequalität wie die eines Spezialisten. Obwohl die in einer Studie nachgewiesene Spezifität und Sensitivität gute Werte erreicht, ist bei diesem Expertensystem nachteilig, dass die Verwendung des Expertensystems nur für ein Aufnahmemedium (Kamera) validiert ist. Läsionen die mit davon abweichenden Kameramodellen (Videokamera, Digitalkamera etc.) aufgenommen wurden, können zwar auch auswertetet werden, die Ergebnisse sind jedoch nicht validiert.  First of all, the image analysis software uses a filter to remove any image interference caused by the accidental absorption of small air bubbles or caused by hair. The next step is a fully automated edge search. The software describes the lesion as precisely as possible using a specially developed procedure, taking into account gradients and changes in brightness. In a study carried out at the University Skin Clinic Tübingen, the most important image-analytical parameters were investigated, which enable a distinction between melanoma and birthmark. With a complex model that includes the size of the lesion, special color values and a texture measure, probability statements can be used to diagnose the melanoma. Two models were adapted: one for small lesions that are fully imaged, the other for large lesions protruding beyond the edge of the image. For 605 small lesions the sensitivity is 80 percent, the specificity 82 percent; Sensitivity is 88 percent and specificity 83 percent for the 232 large lesions. Thus, the system achieves approximately the same diagnostic quality as that of a specialist. Although the specificity and sensitivity demonstrated in a study reached good levels, this expert system is disadvantageous in that the use of the expert system is only validated for one recording medium (camera). Although lesions recorded with different camera models (video camera, digital camera, etc.) can also be evaluated, the results are not validated.

Aus US7894651 ist eine Vorrichtung und ein Verfahren bekannt, dass mittels eines speziellen computergestützten Bildgebungssystems (MelaFind®) erstmals nicht-invasiv auch Daten eines auffälligen Leberflecks aus tieferen Hautschichten von bis zu 2,5 mm erfasst, dargestellt und auswerten kann. Die multispektrale Verwendung von polarisiertem Licht (10 verschiedenen Wellenlängen von 430 bis 950nm) ermöglicht es, auffällige Wachstumsmuster unterhalb der Hautoberfläche extrem genau nachzuweisen (Auflösung bis zu 20pm) und den Grad einer solchen Auffälligkeit äußerst präzise einzustufen (Sensitivität von 98,3%). In einer Zulassungsstudie für den US- amerikanischen Markt wurde jedoch festgestellt, dass die Spezifität relativ niedrig ist, d.h. das System häufig Läsionen als malignen einstuft, die sich später im Rahmen der histologischen Auswertung als harmlos herausstellten. Dieses System bietet weder dem Arzt als auch dem Patienten einen Mehrwert in der Hautkrebsfrüherkennung, da nahezu jedes Muttermal als Risikomuttermal eingestuft wird. US Pat. No. 7,994,651 discloses a device and a method that by means of a special computer-aided imaging system (MelaFind®) can for the first time non-invasively record, display and evaluate data of a conspicuous liver spot from deeper skin layers of up to 2.5 mm. The multispectral use of polarized light (10 different wavelengths from 430 to 950 nm) makes it possible to detect conspicuous growth patterns below the skin surface extremely precisely (resolution up to 20 pm) and the degree of such To assess conspicuousness extremely precisely (sensitivity of 98.3%). However, an approval study for the US market found that the specificity is relatively low, ie the system often classifies lesions as malignant, which later turned out to be harmless in the histological evaluation. This system offers neither the physician nor the patient added value in skin cancer screening, as almost every birthmark is classified as a risk mother.

Nachteil aller Expertensysteme ist, dass sie hochspezialisiert auf ein schmales Wissensgebiet sind und se die Grenzen ihrer Kompetenz nicht erkennen. Werden also nicht passende Bilder in ein Expertensystem eingeben, kann dieses Diagnoseempfehlungen oder Risikoeinschätzungen geben, die schlichtweg falsch sind, weil das Ausgangsmaterial ungeeignet war. Insofern bedarf ein Expertensystem immer einen kompetenten Anwender. Disadvantage of all expert systems is that they are highly specialized in a narrow field of knowledge and do not recognize the limits of their competence. So if incorrect images are entered into an expert system, it can give diagnostic recommendations or risk assessments that are simply wrong because the source material was inappropriate. In this respect, an expert system always requires a competent user.

Aus WO/2011/087807 ist ein System und Verfahren zur Diagnose eines Melanoms aus digitalen Bildern, die von einem entfernten Benutzer mit einem Smartphone oder einer Digitalkamera aufgenommen wurden und an einen Bildanalyseserver übertragen, der mit einem verteilten Netzwerk kommuniziert, bekannt. Der Bildanalyseserver enthält eine trainierte Lernmaschine zur Klassifizierung von Bildern von malignen und benignen Hautläsionen. Das vom Benutzer bereitgestellte Bild wird vorab verarbeitet, um Größe, Form und Farbe zu extrahieren. Diese Features werden dann mit der trainierten Lernmaschine verarbeitet, um die verdächtige Läsion zu klassifizieren. Das Klassifizierungsergebnis wird nachverarbeitet und eine Risikokennzahl ermittelt, die an den entfernten Benutzer übertragen wird. Eine mit dem Server verknüpfte Datenbank enthält Verweisinformationen zum geografischen Abgleich, d.h. dem Fernnutzer werden Kontaktinformationen von Ärzten zur Behandlung von Hautkrebs bereitgestellt. WO / 2011/087807 discloses a system and method for diagnosing melanoma from digital images taken by a remote user with a smartphone or digital camera and transmitted to an image analysis server communicating with a distributed network. The image analysis server includes a trained learning machine for classifying images of malignant and benign skin lesions. The user-provided image is pre-processed to extract size, shape, and color. These features are then processed with the trained learning machine to classify the suspicious lesion. The classification result is post-processed and a risk score is determined, which is transmitted to the remote user. A database associated with the server contains geographic matching reference information, i. The remote user is provided with contact information from doctors for the treatment of skin cancer.

Die Verwendung von sogenannter Künstlicher Intelligenz zur Musterverarbeitung und zur Erstellung von Diagnoseempfehlungen ist seit den früheren 1960 Jahren bekannt. Man analysierte, ausgehend von der Neurophysiologie, die Informationsarchitektur des menschlichen und tierischen Gehirns. Die Modellierung in Form künstlicher neuronaler Netze illustrierte, wie aus einer einfachen Grundstruktur komplexe Musterverarbeitung geleistet werden kann. Zur Untersuchung dieser Verfahren hat sich die Neuroinformatik als wissenschaftliche Disziplin entwickelt .Diese Art von Lernen beruht im Gegensatz zu Expertensystemen nicht auf der Herleitung und Anwendung von Regeln, denn die besonderen Fähigkeiten des menschlichen Gehirns sind nicht auf einen regelbasierten Intelligenz- Begriff reduzierbar. The use of so-called artificial intelligence for pattern processing and diagnostic recommendations has been known since the early 1960's. Based on neurophysiology, the information architecture of the human and animal brain was analyzed. Modeling in the form of artificial neural networks illustrated how complex pattern processing can be made from a simple basic structure. Neuroinformatics has become a scientific discipline for studying these techniques. Unlike expert systems, this type of learning is not based on the derivation and application of rules, because the special abilities of the human brain are not reducible to a rule-based concept of intelligence.

Das menschliche Gehirn tut sich bei der Bilderkennung leicht. Es braucht keine Anstrengung, um z.B. einen Löwen und einen Tiger voneinander unterscheiden, ein Zeichen zu lesen oder das Gesicht eines Menschen zu erkennen. Es scheint einfach, weil das menschliche Gehirn unglaublich gut darin ist, Bilder zu verstehen. Hingegen ist eine computergestützte Bilderkennung eine komplexe Aufgabe. In den letzten Jahren hat der Bereich des maschinellen Lernens enorme Fortschritte bei der Bewältigung dieser schwierigen Aufgabe gemacht. Ein als Convolutional Neural Network (tiefe Faltungs-Neuronales Netzwerk) bezeichnete Form von Künstlicher Intelligenz erreicht eine vernünftige Leistung bei schweren visuellen Erkennungsaufgaben, wobei die Ergebnisse in manchen Bereichen mit der menschlichen Leistung übereinstimmen oder diese sogar übertreffen können. The human brain is easy at image recognition. It takes no effort, for example, to distinguish a lion and a tiger from each other, to read a sign or to recognize the face of a human being. It just seems because the human brain is incredibly good at understanding images. By contrast, computer-aided image recognition is a complex task. In recent years, machine learning has made tremendous progress in tackling this difficult task. A form of artificial intelligence called Convolutional Neural Network (deep convolutional neural network) achieves one Reasonable performance in severe visual recognition tasks, with results in some areas that match or even surpass human performance.

Typische Modelle eines Convolutional Neural Networks sind QuocNet, AlexNet, Inception (GoogLeNet), BN-lnception-v2. Die Forschung hat einen stetigen Fortschritt in der Bildverarbeitung gezeigt, indem sie Ergebnisse gegen ImageNet validiert haben. ImageNet ist eine Datenbank von Bildern, welche für Forschungsprojekte eingesetzt wird. Jedes Bild wird einem Substantiv zugeordnet. Die Substantive sind durch das Word Net-Projekt hierarchisch angeordnet. Zu jedem Substantiv gibt es im Schnitt mehr als 500 Bilder.  Typical models of a Convolutional Neural Network are QuocNet, AlexNet, Inception (GoogLeNet), BN-lnception-v2. Research has shown steady progress in image processing by validating results against ImageNet. ImageNet is a database of images used for research projects. Each picture is assigned to a noun. The nouns are hierarchically arranged by the Word Net project. Each noun has an average of more than 500 images.

ImageNet wird seit der Veröffentlichung, welche 2009 auf der IEEE Conference on Computer Vision and Pattern Recognition stattfand, zum Trainieren von Convolutional Neural Networks (CNN) verwendet - und stellt einen akademischen Maßstab für Bilderkennung dar.  ImageNet has been used to train Convolutional Neural Networks (CNN) since its release in 2009 at the IEEE Conference on Computer Vision and Pattern Recognition, and represents an academic benchmark for image recognition.

Basierend auf den guten Ergebnissen der Convolutional Neural Network in der allgemeinen Bilderkennung wird in der Medizin und insbesondere in der Dermatologie daran gearbeitet, mit Hilfe von einem Convolutional Neural Network (CNN) die Hautkrebsfrüherkennung zu verbessern. Based on the good results of the Convolutional Neural Network in general image recognition, medicine, and in particular dermatology, is working to improve early detection of skin cancer with the help of a Convolutional Neural Network (CNN).

Es wird dabei gezielt daran gearbeitet, anhand von klinischen Bildern der Haut die Malignität einer Lasion mit Hilfe eines CNN zu bestimmen. Nachteilig erweist sich hierbei, dass das verfügbare Bildmaterial an klinischen Bildern hinsichtlich ihrer Qualität oftmals schlecht und nicht histologisch gesichert ist, d.h. zum Trainieren eines CNN nur bedingt geeignet ist. The aim is to work with clinical images of the skin to determine the malignancy of a lesion with the help of a CNN. The disadvantage here is that the available image material on clinical images is often poorly and not histologically confirmed in terms of their quality, i. to train a CNN is only partially suitable.

Der Erfindung liegt daher die Aufgabe zugrunde, ein vor dem vorstehend beschriebenen Hintergrund verbessertes Verfahren zur Untersuchung der Haut anhand von mikroskopischen Bildern unter Einbeziehung eines CNN vorzuschlagen. Dieses Verfahren soll ferner durch die ergänzende Auswertung von klinischen Bildern zusammen mit den mikroskopischen Bildern verfeinert werden. Der Erfindung liegt weiterhin die Aufgabe zugrunde, eine zur Durchführung des genannten Verfahrens besonders geeignete Vorrichtung anzugeben. It is therefore the object of the invention to propose a method for the examination of the skin which has been improved on the background described above on the basis of microscopic images involving a CNN. This method should also be refined by the complementary evaluation of clinical images together with the microscopic images. A further object of the invention is to provide a device which is particularly suitable for carrying out said method.

Die mit der Erfindung erzielten Vorteile bestehen insbesondere darin, dass eine regelunabhängige Bewertung von Läsionen anhand der mikroskopischen und klinischen Bilder erfolgen kann, die in der täglichen dermatologischen Praxis im Rahmen der digitalen Hautkrebsvorsorge erstellt werden. Die Erfindung ist unabhängig von den verwendeten digitalen Aufnahmemedien, Bildformaten und Bildauflösungen. Die Kombination von mikroskopischen und klinischen Bildern im Rahmen einer Auswertung mittels eines Convolutional Neural Networks (CNN) bringt den Auswertevorgang als solche auf eine neue Ebene und ermöglicht eine parallele Auswertung oder eine Einzelauswertung anhand des mikroskopischen Bildes oder des klinischen Bildes. The advantages achieved by the invention are in particular that a rule-independent assessment of lesions can be based on the microscopic and clinical images that are created in the daily dermatological practice in the context of digital skin cancer screening. The invention is independent of the digital recording media, image formats and image resolutions used. The combination of microscopic and clinical images as part of an evaluation using a Convolutional Neural Network (CNN) brings the evaluation process as such to a new level and enables a parallel evaluation or a single evaluation based on the microscopic image or the clinical picture.

Bezüglich des Verfahrens wird die Aufgabe erfindungsgemäß gelöst durch die Merkmale des Anspruchs 3 ff.. Weitere Vorteile und Merkmale der Erfindung ergeben sich aus nachfolgender Beschreibung eines bevorzugten Ausführungsbeispiels anhand der beigefügten Zeichnungen. With regard to the method, the object is achieved according to the invention by the features of claim 3 et seq. Further advantages and features of the invention will become apparent from the following description of a preferred embodiment with reference to the accompanying drawings.

Dabei zeigt: Showing:

Fig. 1 ein schematisiertes Ablaufdiagramm eines Teils des erfindungsgemäßen Verfahrens; Fig. 2 ein schematisiertes Ablaufdiagramm eines weiteren Teils des erfindungsgemäßen Verfahrens; Fig. 1 is a schematic flow diagram of part of the method according to the invention; FIG. 2 shows a schematic flow diagram of a further part of the method according to the invention; FIG.

Fig. 3 eine schematische Darstellung einer zur Durchführung des genannten Verfahrens besonders geeignete Vorrichtung;  3 shows a schematic representation of a device which is particularly suitable for carrying out said method;

Das erfindungsgemäße Verfahren sieht folgende Schritte gemäß Fig.1 vor: The method according to the invention provides the following steps according to FIG. 1:

Zunächst erfolgt die Aufnahme digitaler Bilder eines Untersuchungskörpers (Patienten) anhand einer Mehrzahl vorgegebener Positionierungen des Untersuchungskörpers bezüglich des Abbildungssystems durch das Abbildungssystem (S1 a). Dieser Verfahrensschritt wird als Total Body Mapping bezeichnet. First, digital images of an examination body (patient) are recorded on the basis of a plurality of predetermined positions of the examination body with respect to the imaging system by the imaging system (S1 a). This process step is called Total Body Mapping.

In einem nächsten Verfahrensschritt werden vom Anwender zu den aufgefunden Läsionen mikroskopische Bilder mittels eines digitalen Dermatoskops erstellt (S1 b). Dem Anwender steht es frei, ob er von allen aufgefundenen oder nur von ausgewählten Läsionen mikroskopische Aufnahmen erstellt. Die mikroskopischen Aufnahmen werden durch den vorgebenden Bedienungsablauf den Läsionen in den Total Body Mapping Aufnahmen zugeordnet (Si c).  In a next method step, microscopic images are created by the user to the lesions found using a digital dermatoscope (S1 b). It is up to the user whether he creates microscopic images of all or only selected lesions. The microscopic images are assigned to the lesions in the total body mapping images by the prescriptive procedure (Si c).

In einem weiteren Verfahrensschritt (S2) werden die mikroskopischen Aufnahmen an das ein CNN enthaltenes Auswertemodul übergeben, das zum Beispiel auf dem GoogleNet Inception v4 CNN Architektur basiert. Dazu werden die mikroskopischen Bilder wie folgt verarbeitet: In a further method step (S2), the microscopic images are transferred to the evaluation module containing a CNN, which is based, for example, on the GoogleNet Inception v4 CNN architecture. For this, the microscopic images are processed as follows:

Die Inception Architektur erfordert derzeit eine standardisierte Bereitstellung der Bilder im Format 229 x229 Pixel. Die mikroskopischen Aufnahmen liegen in der Regel in einem rechteckigen Format vor und sind in einer höheren Auflösung aufgenommen. Nachdem die mikroskopischen Aufnahmen von verschiedenen Aufnahmegeräten stammen können, zusätzlich kann die Auflösung der jeweiligen Aufnahme variieren. Die Anpassung des Bildverhältnisses auf ein Verhältnis 1 : 1 für das CNN Modul kann durch Zuschneiden des Bildes auf ein Bildverhältnis 1 : 1 oder durch Auffüllen des rechteckigen Bildbereichs zu einem Bildverhältnis 1 : 1 erfolgen. Dabei ist jedoch nachteilig, dass beim Zuschneiden wichtige Bildinformationen der Läsion verloren gehen könnten, wenn diese nicht zentriert, also bildmittig aufgenommen wurde. Das Auffüllen des Bildbereichs auf ein Bildverhältnis 1 : 1 hat jedoch den Nachteil, dass das Bild noch größer wird und mit Bildinformationen gefüllt wird, die für die Auswertung nicht relevant sind, da nachträglich hinzugefügt. Zum anderen muss die Auflösung anschließend auf 229 x 229 Pixel reduziert werden, so dass also durch das Auffüllen und anschließende Komprimieren noch ein zusätzlicher Qualitätsverlust erfolgt. Bei beiden vorgenannten Bearbeitungsschritten ginge also für die Auswertung wichtige Bildinformation verloren. The Inception architecture currently requires standardized delivery of 229 x 229 pixel images. The microscopic images are usually in a rectangular format and are recorded in a higher resolution. After the microscopic images can come from different recording devices, in addition, the resolution of each recording may vary. Adjusting the image ratio to a 1: 1 ratio for the CNN module can be achieved by cropping the image to a 1: 1 aspect ratio or by filling the rectangular image area to a 1: 1 aspect ratio. However, it is disadvantageous that when cutting important image information of the lesion could be lost if it was not centered, so was taken in the center. However, filling the image area to an image ratio of 1: 1 has the disadvantage that the image becomes even larger and is filled with image information that is not relevant for the evaluation, since it is subsequently added. On the other hand, the resolution must then be reduced to 229 x 229 pixels, so that by filling and Subsequent compressing still an additional quality loss takes place. In the case of both aforementioned processing steps, important image information would therefore be lost for the evaluation.

Der dieser Erfindung zugrunde liegende Verfahrensschritt sieht daher eine kombinierte Vorgehensweise vor. Zunächst wird das Bild auf ein Bildverhältnis von 1 : 1 aufgefüllt (sog. Padding). Dabei wird das Bild mit schwarzen Pixeln auf ein quadratisches Bildformat aufgefüllt. Anschließend wird dieses Bild zugeschnitten (sog. cropping), so dass sie hinsichtlich Format und Auflösung vom CNN-Auswertemodul übernommen werden können. Es wird also aus einem mikorskopischen Bild je nach Größe und Auflösung eine Vielzahl von Bildzuschnitten mit einem Bildverhältnis 1 :1 und einer Auflösung von 229 x 229 Pixel erstellt. Dadurch muss kein Qualitätsverlust hingenommen werden. Sofern es sich um eine melanozytäre Läsion handelt, die im Bildbereich der mikroskopischen Aufnahme vollständig abgebildet ist, kann mittels automatischer Randerkennung die Läsion aus dem Bild ausgeschnitten werden und in einem neuen Datensatz zwischengespeichert werden. Auf diesen Datensatz werden dann anschließend die vorgenannten Bearbeitungsschritte S2a und S2b durchgeführt mit dem Vorteil, dass dabei weniger Bildinformationen verloren gehen. The method step on which this invention is based therefore provides a combined procedure. First, the image is filled to an image ratio of 1: 1 (so-called padding). The image is filled with black pixels on a square image format. Subsequently, this image is cropped (so-called cropping), so that they can be taken over in terms of format and resolution of the CNN evaluation module. Depending on the size and resolution, a large number of image crops with a picture ratio of 1: 1 and a resolution of 229 x 229 pixels are created from a microscopic image. As a result, no loss of quality must be accepted. If it is a melanocytic lesion that is completely imaged in the image area of the microscopic image, the lesion can be excised from the image by means of automatic edge recognition and buffered in a new data set. The aforementioned processing steps S2a and S2b are then subsequently carried out on this data record, with the advantage that less image information is lost in the process.

Ein CNN besteht aus einer oder mehreren Faltungsschichten, häufig mit einer Sub-Sampling- Schicht, die von einer oder mehreren voll verbundenen Schichten wie in einem herkömmlichen neuronalen Netz gefolgt wird. Das Design eines CNN orientiert sich an der Sehrinde im Gehirn. Die Sehrinde enthält viele Zellen, die dafür verantwortlich sind, Licht in kleinen sich überlappenden Unterbereichen des Gesichtsfelds zu erkennen. Diese werden Rezeptorenfelder genannt. Die Zellen agieren als lokale Filter für den Eingabebereich, während komplexere Zellen größere Rezeptorenfelder haben. Die Faltungsschicht in einem CNN führt die gleiche Funktion aus wie die Zellen in der Sehrinde. Jedes Element einer Schicht empfängt Eingaben von verschiedenen Elementen, die in enger Nachbarschaft in der vorhergehenden Schicht liegen und damit quasi lokale Rezeptorenfelder darstellen. Mit lokalen Rezeptorenfeldern lassen sich elementare Sehmerkmale wie Kanten, Endpunkte, Ecken usw. extrahieren, die dann mittels höherer Schichten kombiniert werden. Im konventionellen Modell der Muster-/Bilderkennung sammelt ein manuell entwickeltes Merkmal-Extraktionswerkzeug relevante Informationen aus der Eingabe und entfernt irrelevante Bestandteile. Dem Extraktionswerkzeug folgt ein trainierbarer Klassifizierer, ein herkömmliches neuronales Netz, das Merkmal-Vektoren in Klassen einteilt. In einem CNN übernehmen dagegen Faltungsschichten die Funktion des Merkmal-Extraktionswerkzeugs. Diese wurden aber nicht manuell entwickelt, sondern ein Trainingsprozess hat die entsprechenden Filtergewichte bestimmt. Die Faltungsschichten können lokale Merkmale extrahieren, da sie die Empfangsfelder der verdeckten Schichten auf den lokalen Bereich einschränken. A CNN consists of one or more convolutional layers, often with a sub-sampling layer followed by one or more fully connected layers as in a conventional neural network. The design of a CNN is based on the visual cortex in the brain. The visual cortex contains many cells responsible for detecting light in small overlapping subregions of the visual field. These are called receptor fields. The cells act as local filters for the input area, while more complex cells have larger receptor fields. The folding layer in a CNN performs the same function as the cells in the visual cortex. Each element of a layer receives inputs from different elements that are in close proximity to the previous layer and thus are quasi-local receptor fields. With local receptor fields, elementary traits such as edges, endpoints, corners, etc. can be extracted, which are then combined by means of higher layers. In the conventional pattern / image recognition model, a manually developed feature extraction tool collects relevant information from the input and removes irrelevant components. The extraction tool is followed by a trainable classifier, a conventional neural network, which classifies feature vectors into classes. In a CNN, on the other hand, folding layers assume the function of the feature extraction tool. These were not developed manually, but a training process has determined the appropriate filter weights. The convolution layers can extract local features because they restrict the receive fields of the hidden layers to the local area.

Die in dieser Erfindung verwendete CNN Struktur besteht aus 27 Schichten, wobei die erste Schicht das eingegebene Bild und die letzte Schicht die Klassifizierung und ein Vertrauenswert darstellen. In den Schichten dazwischen werden bestimmte Filtermethoden auf verschiedene Pixeleinstellungen angewandt um so viel Informationen aus den Bildern zu ziehen wie möglich. Bei einigen Filtern werden bestimmte Mittelwerte oder Maximalwerte extrahiert. Über die vorletzte Schicht wird das Model generalisiert. Um ein CNN Netzwerk für die Erkennung und Bewertung von Hautläsionen verwenden zu können, muss man das CNN Netzwerk darauf trainieren. CNN Netzwerke funktionieren am besten mit großen Datensätzen. Dazu verwendet man einen sehr gut trainierten Datensatz (über 1 ,2 Mio. Bilder) mit ausgezeichneter Performance hinsichtlich allgemeiner Bilderkennung und passt diesen an die neue Aufgabenstellung zur Erkennung von Hautläsionen an. Dieses Verfahren wird als„transfer learning" bezeichnet. Dazu wird das vorhandene Modell mit angepassten Gewichtungswerten initialisiert, sodass es am Ende dazu in der Lage ist eine Läsion klassifizieren zu können. Damit diese Methode zuverlässig funktioniert, wurden für das spezifische Training des der Erfindung zugrunde liegenden Modells über 25.000 dermatoskopische Bilder von Hautläsionen verwendet. Diese Aufnahmen wurden entweder durch Histologie oder durch Verlaufskontrolle ohne Veränderung als bösartig (malignant) oder gutartig (benign) diagnostiziert. The CNN structure used in this invention consists of 27 layers, the first layer representing the input image and the last layer the classification and a confidence value. In the layers in between, certain filter methods are applied to different pixel settings to extract as much information from the images as possible. Some filters extract certain averages or maximums. The model is generalized over the penultimate layer. In order to use a CNN network for the detection and evaluation of skin lesions, one must train the CNN network on it. CNN networks work best with large datasets. For this purpose, a very well-trained data set (over 1.2 million images) with excellent performance with regard to general image recognition is used and adapts to the new task for the detection of skin lesions. This method is referred to as "transfer learning." For this purpose, the existing model is initialized with adjusted weighting values, so that it is finally able to classify a lesion.To ensure that this method works reliably, the specific training of the invention was used Over 25,000 dermatoscopic images of skin lesions were used, which were diagnosed as either malignant or benign by histology or by follow-up without change.

Diese gemäß S2a und S2b erstellten Bildausschnitte werden nun vom CNN-Auswertemodul übergeben (S3) und hinsichtlich ihrer Malignität ausgewertet (S4a). Dabei werden die Bildausschnitte jeweils mehrmals in das CNN-Auswertemodul in unterschiedlichen Ausrichtungen eingegeben, d.h. in unterschiedlichen Winkeln und Drehungen.  These image sections produced according to S2a and S2b are now transferred by the CNN evaluation module (S3) and evaluated with regard to their malignancy (S4a). The image sections are in each case entered several times into the CNN evaluation module in different orientations, i. in different angles and rotations.

Diese Teilergebnisse werden anschließend zu einem Endergebnis verrechnet (S4b). These partial results are then calculated to a final result (S4b).

Das Endergebnis wird anschließend in Form eines Gewichtungswertes für die betroffene Läsion auf der Ausgabeeinheit für den Anwender angezeigt. The final result is then displayed in the form of a weight value for the affected lesion on the output unit for the user.

Im Rahmen der Auswertung gemäß S4a und S4b ist es dabei unwesentlich, in welchem Vergrößerungsfaktor die mikroskopischen Aufnahmen erstellt wurden. Es können beispielsweise dermatoskopische Aufnahmen mit 20-facher optischer Vergrößerung genauso ausgewertet werden wie Aufnahmen mit 70-facher Vergrößerung. In the context of the evaluation according to S4a and S4b, it is irrelevant in which magnification factor the microscopic images were taken. For example, dermatoscopic images with 20x optical magnification can be evaluated in the same way as images with 70x magnification.

Nachdem eine mikroskopische Aufnahme stets einem klinischen Bild zugeordnet ist, wird in einem ergänzenden Verfahrensschritt (siehe Fig.2) aus dem klinischen Bild ein Teilausschnitt durch die Verarbeitungseinheit erstellt und abgespeichert. Die Extraktion erfolgt durch eine Bilderkennungsund Verarbeitungsfunktion (Software) die auf der Verarbeitungseinheit installiert ist. Wird dieser Detailausschnitt anschließend in voller Auflösung angezeigt, so können bereits anhand diesen klinischen Bildes die dermatoskopischen Strukturen der Läsion wie Farbe, Durchmesser, Struktur, Begrenzung gut erkannt werden. Anschließend wird dieser Datensatz zum Trainieren des CNN bereitgestellt, indem er nach dem dafür üblichen Vorgehen in das CNN eingepflegt wird (S6). After a microscopic image is always associated with a clinical image, a partial detail is created and stored by the processing unit in a supplementary method step (see FIG. 2) from the clinical image. The extraction is performed by an image recognition and processing function (software) installed on the processing unit. If this detail is subsequently displayed in full resolution, the dermoscopic structures of the lesion, such as color, diameter, structure, and limitation, can be easily recognized on the basis of this clinical image. Subsequently, this record is provided for training the CNN by being entered into the CNN according to the usual procedure (S6).

Insofern kann das erfindungsgemäße Verfahren auch ergänzend auf klinische Bilder angewendet werden, denn nach entsprechendem Trainingsaufwand kann anhand der klinischen Bilder einer Läsion bereits eine Risikoeinschätzung hinsichtlich der Malignität erfolgen. In this respect, the inventive method can also be used in addition to clinical images, because after appropriate training effort based on the clinical pictures of a lesion already made a risk assessment in terms of malignancy.

Um das Verfahren hinaus weitere Vorteile zu verleihen, ist es besonders wünschenswert, wenn neben der Malignität der Läsion auch ermittelt wird, ob es sich bei der Läsion um ein melanozytäre oder eine nicht- melanozytäre Läsion handelt. Nachdem die Abgrenzung zwischen melanozytären und nicht- melanozytären Läsionen für den Arzt aufwändig ist, bietet eine entsprechende Auswertung durch das erfindungsgemäße Verfahren einen deutlichen Mehrwert für die ärztliche Diagnosefindung. In order to confer further advantages to the method, it is particularly desirable if, in addition to the malignancy of the lesion, it is also determined whether the lesion is a melanocytic or a non-melanocytic lesion. Having the demarcation between melanocytic and non-melanocytic lesions is expensive for the doctor, a corresponding evaluation by the method according to the invention provides a clear added value for the medical diagnosis.

Unter dem Begriff der melanozytären Läsion versteht man in der Dermatologie ein Hautareal, das sich farblich von seiner Umgebung unterscheidet. Verantwortlich für die meist bräunliche Färbung sind die Pigmentzellen der Haut - die Melanozyten. Diese Läsion wird als Nävus bezeichnet.  In dermatology, the term melanocytic lesion refers to a skin area that differs in color from its surroundings. Responsible for the mostly brownish color are the pigment cells of the skin - the melanocytes. This lesion is called a nevus.

Unter den nicht-melanozytären Läsionen werden durch verschiedene Faktoren bedingte Veränderungen der Oberhaut verstanden. Als Ursachen kommen besonders chronische Lichtschädigungen oder die Infektion mit bestimmten Viren in Frage. Gegenüber den melanozytären Läsionen werden sie in einem mehrstufigen Verfahren abgegrenzt. Häufige nicht-melanozytäre Läsionen sind zum Beispiel die aktinische Keratose oder Morbus Bowen, eine Vorstufe des Spinalioms sowie Basalzellkarzinome. Non-melanocytic lesions are understood to be due to various factors related to changes in the epidermis. The causes are especially chronic light damage or infection with certain viruses in question. Compared to the melanocytic lesions, they are delineated in a multi-step procedure. Common non-melanocytic lesions include, for example, actinic keratosis or Bowen's disease, a precursor to the spinal biome, and basal cell carcinomas.

Aktinische Keratosen können dunkel gefärbt sein, so dass der Arzt zunächst von eine melanozytären Läsion ausgehen könnte.  Actinic keratoses may be dark in color, so the doctor may initially assume a melanocytic lesion.

Das Verfahren erfolgt analog zum dem Verfahren zur Ermittlung des Gewichtungswertes hinsichtlich der Malignität. Wie in Fig. 1 dargestellt, werden die mikroskopischen Bilder der Läsion für die Übergabe in das CNN entsprechend aufbereitet und an dieses übergeben. Das CNN ist zuvor anhand von Trainingsdatensätzen mittels Bilder von melanozytären und nicht- melanozytären Läsionen trainiert und kann diesbezüglich einen Gewichtungswert ausgeben. The method is analogous to the method for determining the weighting value in terms of malignancy. As shown in Figure 1, the microscopic images of the lesion are prepared for transfer to the CNN and transferred to it. The CNN has previously been trained on the basis of training data sets by means of images of melanocytic and non-melanocytic lesions and can issue a weighting value in this regard.

Die erfindungsgemäße Aufgabe wird durch eine computerisierte Vorrichtung gelöst, welches eine Empfangseinheit zum Empfangen von klinischen Bildern von Hautläsionen sowie die dazugehörigen mikroskopischen Aufnahmen der Hautläsion eines Menschen oder Tieres eingerichtet ist. Ferner verfügt die Vorrichtung über eine Verarbeitungseinheit die in der Weise konfiguriert ist, die empfangenen klinischen Bilder von Hautläsionen sowie der dazugehörigen mikroskopischen Aufnahmen der Hautläsionen zu verarbeiten, d.h. um die Bilder für die Übergabe in ein Convolutional Neural Network (CNN) vorzubereiten. Ferner verfügt die Vorrichtung über eine Bereitstellungseinheit, die in der Weise konfiguriert ist, ein Convolutional Neural Network (CNN) vorzuhalten. Nachdem das Betreiben eines Convolutional Neural Network (CNN) eine erhebliche Rechnerleistung bedarf, ist in der Regel die Bereitstellungseinheit räumlich von der Empfangs- und Verarbeitungseinheit getrennt und die verschiedenen Einheiten sind über eine Netzwerkleitung oder das Internet verbunden. Die Empfangs- und Verarbeitungseinheit kann zum Beispiel aus einem handelsüblichen Total Body Mapping System (z.B. FotoFinder bodystudio ATBM) bestehen, wie es in DE 20 2013 007 374U1 offenbart ist. Es wird dabei eine hochauflösende Digitalkamera (Auflösung 24 MegaPixel oder höher) zum Erstellen der klinischen Bilder der menschlichen Haut von einzelnen Körperregionen verwendet. Die Verarbeitungseinheit nutzt die hochauflösenden Bilder um daraus einzelne Läsionen aus dem klinischen Bild zu extrahieren und dies in ihrer vollen Auflösung für die weitere Verarbeitung bereitzustellen. Die Extraktion erfolgt durch eine Bilderkennungs- und Verarbeitungsfunktion (Software) die auf der Verarbeitungseinheit installiert ist. Wird dieser Detailausschnitt anschließend in voller Auflösung angezeigt, so können bereits anhand diesen klinischen Bildes die dermatoskopischen Strukturen der Läsion wie Farbe, Durchmesser, Struktur, Begrenzung gut erkannt werden. Da sich die Auflösung zukünftiger digitaler Kameras erfahrungsgemäß weiter erhöhen wird, wird sich das Ergebnis dieser Vorgehensweise immer mehr einer dermatoskopischen Aufnahme annähern bzw. dieser entsprechen. Die extrahierten Bilder werden als neuer Datensatz gespeichert und mit der dazugehörigen klinischen Aufnahme verknüpft. Diese beiden Datensätze können dann in das CNN zur weiteren Auswertung übergeben werden. Der Datensatz des klinischen Bildes kann zum Trainieren des CNN verwendet werden, wobei das Ergebnis der Auswertung des zugehörigen mikroskopischen Bildes in Form des Gewichtungswertes mitübergeben wird. Dieser Gewichtungswert definiert also die Einstufung des klinischen Bildes als benign oder malignant. The object according to the invention is achieved by a computerized device which is equipped with a receiving unit for receiving clinical images of skin lesions as well as the associated microscopic images of the skin lesion of a human or animal. Further, the device has a processing unit configured to process the received clinical images of skin lesions and the associated microscopic images of the skin lesions, ie to prepare the images for delivery to a Convolutional Neural Network (CNN). Further, the device has a provisioning unit configured to hold a Convolutional Neural Network (CNN). Since the operation of a Convolutional Neural Network (CNN) requires significant computing power, the provisioning unit is typically spatially separate from the receiving and processing unit and the various units are connected via a network line or the Internet. The receiving and processing unit can for example consist of a commercially available Total Body Mapping System (eg FotoFinder bodystudio ATBM), as disclosed in DE 20 2013 007 374U1. It uses a high-resolution digital camera (resolution 24 megapixels or higher) to create the clinical images of the human skin of individual body regions. The processing unit uses the high-resolution images to extract individual lesions from the clinical image and provide them in their full resolution for further processing. The extraction is performed by an image recognition and processing function (software) installed on the processing unit. If this detail is then displayed in full resolution, you can already use this clinical picture of the dermoscopic structures of the lesion such as color, diameter, structure, limitation are well recognized. Since experience shows that the resolution of future digital cameras will continue to increase, the result of this procedure will increasingly approximate or correspond to a dermatoscopic image. The extracted images are saved as a new record and linked to the associated clinical record. These two data records can then be transferred to the CNN for further evaluation. The data set of the clinical image can be used to train the CNN, the result of the evaluation of the associated microscopic image being transmitted in the form of the weighting value. This weighting value defines the classification of the clinical picture as benign or malignant.

In einer weiteren vorteilhaften Ausführungsform kann hierbei der histologische Befund für die Läsion mitübergeben werden. Wird eine Läsion vom Arzt als bösartig klassifiziert und operativ entfernt, wird in der Regel im Rahmen einer histologischen Untersuchung die Malignität der Läsion final geklärt. Das Ergebnis der histologischen Untersuchung kann mit dem Datensatz der mikroskopischen Aufnahme und damit auch mit der klinischen Aufnahme der Läsion verknüpft werden und erhöht somit die Validität des Datensatzes als Trainingsdatensatz für das CNN.  In a further advantageous embodiment, the histological findings for the lesion can also be transferred. If a lesion is classified by the doctor as malignant and surgically removed, the malignancy of the lesion is usually clarified as part of a histological examination. The result of the histological examination can be linked to the record of the microscopic image and thus also to the clinical recording of the lesion, thus increasing the validity of the data set as a training dataset for the CNN.

Fundstellen a) Dermatologist-Ievel Classification of skin cancer with deep neural networks" Andre Esteva, Brett Kuprel (..) , Nature 542, 1 15-1 18 02 February 2017) Findings a) Dermatologist level of skin cancer with deep neural networks "Andre Esteva, Brett Kuprel (..), Nature 542, 1 15-1 18 02 February 2017)

b) Ciresan, D., Meier, U., Schmidhuber, J,:. Multi-column deep neural networks for image classication. In: Conference on Computer Vision and Pattern Recognition, IEEE (2012) 3642-3649;  b) Ciresan, D., Meier, U., Schmidhuber, J.,:. Multi-column deep neural networks for image classification. In: Conference on Computer Vision and Pattern Recognition, IEEE (2012) 3642-3649;

c) Krizhevsky, A., Sutskever, I., Hinton, G.E.: Imagenet classication with deep convolutional neural networks. In: Advances in Neural Information Processing Systems. Volume 1. (2012) 4;  c) Krizhevsky, A., Sutskever, I., Hinton, G.E .: Imagenet classication with deep convolutional neural networks. In: Advances in Neural Information Processing Systems. Volume 1. (2012) 4;

Claims

Patentansprüche claims 1. Eine computerisierte Vorrichtung zum Verarbeiten von Bilddaten, wobei die computerisierte Vorrichtung umfasst: A computerized image data processing apparatus, the computerized apparatus comprising: eine Empfangseinheit die konfiguriert ist, klinische Bilder von Hautlasionen sowie die dazugehörigen mikroskopischen Aufnahmen der Hautläsion eines Menschen oder Tieres zu empfangen,  a receiving unit configured to receive clinical images of skin lesions and associated microscopic images of the skin lesion of a human or animal, eine Verarbeitungseinheit die konfiguriert ist, die empfangenen klinischen Bilder von Hautläsionen sowie der dazugehörigen mikroskopischen Aufnahmen der Hautläsionen zu verarbeiten und  a processing unit configured to process the received clinical images of skin lesions and the associated microscopic images of the skin lesions, and eine Bereitstellungseinheit die konfiguriert ist, ein Convolutional Neural Network (CNN) zum Verarbeiten der klinischen Bilder von Hautläsionen sowie der dazugehörigen mikroskopischen Aufnahmen der Hautläsionen vorzuhalten und  a deployment unit configured to maintain a convolutional neural network (CNN) for processing the clinical images of skin lesions and associated microscopic images of the skin lesions, and unter Verwendung eines Convolutional Neural Network (CNN)) Hautläsionen anhand der mikroskopischen Aufnahmen hinsichtlich ihrer Malignität klassifiziert und  using a Convolutional Neural Network (CNN)), skin lesions are classified according to the microscopic images for their malignancy and einen Gewichtungswert für die Läsion ermittelt und  determined a weight value for the lesion and anschließend die klinischen Bilder der Läsion unter Bezugnahme auf den ermittelten Gewichtungswert der zugehörigen mikroskopischen Aufnahme zum Trainieren des CNN bereitstellt.  then provide the clinical images of the lesion by reference to the determined weight value of the associated microscopic image to train the CNN. 2. Eine computerisierte Vorrichtung gemäß Anspruch 1 , dadurch gekennzeichnet, dass 2. A computerized device according to claim 1, characterized in that unter Verwendung eines Convolutional Neural Network (CNN) Hautläsionen anhand der mikroskopischen Aufnahmen hinsichtlich ihrer Melanozytät klassifiziert und  classified using a Convolutional Neural Network (CNN) skin lesions based on the micrographs regarding their melanocytosis and einen Gewichtungswert für die Läsion ermittelt wird.  a weighting value for the lesion is determined. 3. Ein Verfahren zum Verarbeiten von Bilddaten, wobei das Verfahren umfasst: 3. A method of processing image data, the method comprising: Empfangen einer mikroskopischen Aufnahme der Hautläsion eines Menschen oder Tieres Bereitstellen eines Convolutional Neural Network (CNN) zum Verarbeiten der empfangenen Bilddaten und  Receiving a microscopic image of the skin lesion of a human or animal providing a convolutional neural network (CNN) for processing the received image data and Verarbeiten mikroskopische Aufnahme unter Verwendung des Convolutional Neural Network (CNN) zum Klassifizieren der Malignität der Hautläsion und  Process microscopic image using the Convolutional Neural Network (CNN) to classify the malignancy of the skin lesion and Errechnen und Ausgabe eines Gewichtungswertes für die Läsion.  Calculate and output a weighting value for the lesion. 4. Ein Verfahren zum Verarbeiten von Bilddaten, wobei das Verfahren umfasst: 4. A method of processing image data, the method comprising: Empfangen einer mikroskopischen Aufnahme einer Hautläsion eines Menschen oder Tieres Bereitstellen eines Convolutional Neural Network (CNN) zum Verarbeiten der empfangenen Bilddaten und Verarbeiten der empfangenen Bilddaten unter Verwendung des Convolutional Neural Network (CNN) zur Bestimmung der Melanozytät der Lasion. und Receiving a microscopic image of a human or animal skin lesion; providing a convolutional neural network (CNN) to process the received image data; and Processing the received image data using the Convolutional Neural Network (CNN) to determine the melanocyte of the lesion. and Errechnen und Ausgabe eines Gewichtungswertes für die Läsion.  Calculate and output a weighting value for the lesion. 5. Ein Verfahren gemäß Anspruch 3, wobei das Verfahren umfasst: 5. A method according to claim 3, wherein the method comprises: Empfangen eines vergrößerten Ausschnitts des klinischen Bildes der Lasion sowie der dazugehörigen mikroskopischen Aufnahme der Hautläsion;  Receiving a magnified portion of the clinical image of the lesion and the associated microscopic image of the skin lesion; Bereitstellen eines Convolutional Neural Network (CNN) zum parallelen Verarbeiten der empfangenen und verbundenen Bilddaten sowie  Providing a Convolutional Neural Network (CNN) to process the received and associated image data in parallel as well Trainieren des Convolutional Neural Network (CNN) anhand des klinischen Bildes und dem dazugehörigen mikroskopischen Bildes sowie des ermittelten Gewichtungswertes.  Train the Convolutional Neural Network (CNN) on the basis of the clinical picture and the associated microscopic image as well as the determined weight value. 6. Ein Verfahren nach den Ansprüchen 3, 4 und 5 wobei das Verfahren umfasst: A method according to claims 3, 4 and 5 wherein the method comprises: Auffüllen des in das Convolutional Neural Network (CNN) zu übergebende Bild auf ein Bildverhältnis von 1 : 1 (sog. Padding) und  Padding the image to be transferred to the Convolutional Neural Network (CNN) to an aspect ratio of 1: 1 (so-called padding) and Zuschneiden des Bildes (sog. cropping) in Teilbilder mit einer für die Übergabe in ein Convolutional Neural Network (CNN) geeignete Auflösung.  Cropping the image (so-called cropping) into partial images with a resolution suitable for transfer to a Convolutional Neural Network (CNN). 7. Ein Verfahren nach Anspruch 6 wobei das Verfahren umfasst: A method according to claim 6, wherein the method comprises: Zuschneiden des Bildes (sog. cropping) in Teilbilder mit einer Auflösung von 223 x 223 Pixel.  Cropping the image (so-called cropping) into partial images with a resolution of 223 x 223 pixels. 8. Verfahren nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass der gewichtete Gesamtwert in der Verarbeitungseinheit gespeichert wird. 8. The method according to any one of claims 3 to 5, characterized in that the weighted total value is stored in the processing unit.
PCT/DE2018/000325 2017-11-09 2018-11-09 Method for analyzing the skin appearance of a human being in the context of skin cancer screening and apparatus for carrying out same Ceased WO2019091509A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017010397.6A DE102017010397A1 (en) 2017-11-09 2017-11-09 Method for evaluating the skin pattern of a human in the context of skin cancer screening and device for its operation
DE102017010397.6 2017-11-09

Publications (1)

Publication Number Publication Date
WO2019091509A1 true WO2019091509A1 (en) 2019-05-16

Family

ID=65228284

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2018/000325 Ceased WO2019091509A1 (en) 2017-11-09 2018-11-09 Method for analyzing the skin appearance of a human being in the context of skin cancer screening and apparatus for carrying out same

Country Status (2)

Country Link
DE (1) DE102017010397A1 (en)
WO (1) WO2019091509A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110399916A (en) * 2019-07-24 2019-11-01 淮阴工学院 A Skin Cancer Image Classification Method Based on Image Enhancement and Inception Network
CN112017787A (en) * 2020-08-17 2020-12-01 杭州依图医疗技术有限公司 Medical information AI platform and computing equipment
CN112669959A (en) * 2020-12-17 2021-04-16 中国医学科学院皮肤病医院(中国医学科学院皮肤病研究所) Vitiligo state of illness automatic assessment method based on image
CN113057593A (en) * 2021-03-18 2021-07-02 杭州睿胜软件有限公司 Image recognition method, readable storage medium and electronic device
US12118723B1 (en) * 2023-06-21 2024-10-15 BelleTorus Corporation Compute system with image based skin cancer detection mechanism and method of operation thereof

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3141644A1 (en) 2019-07-01 2021-01-07 Digital Diagnostics Inc. Diagnosing skin conditions using machine-learned models
CN111444960A (en) * 2020-03-26 2020-07-24 上海交通大学 Dermatological image classification system based on multimodal data input
DE102023106118A1 (en) 2023-03-13 2024-09-19 Bayerische Motoren Werke Aktiengesellschaft Device of a vehicle and method for detecting a skin disease of a vehicle occupant

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050171439A1 (en) * 2004-01-20 2005-08-04 Michael Maschke Method and device for examining the skin
CA2206273C (en) * 1994-12-01 2006-04-04 Artner, Norbert Skin examination device
US7894651B2 (en) 2007-03-02 2011-02-22 Mela Sciences, Inc. Quantitative analysis of skin characteristics
WO2011087807A2 (en) 2009-12-22 2011-07-21 Health Discovery Corporation System and method for remote melanoma screening
US20120008838A1 (en) * 2000-08-07 2012-01-12 Health Discovery Corporation System and method for remote melanoma screening
WO2013103475A2 (en) * 2011-12-09 2013-07-11 Massachusetts Institute Of Technology Portable optical fiber probe-based spectroscopic scanner for rapid cancer diagnosis
DE202013007374U1 (en) 2013-08-16 2013-11-05 FotoFinder Systems GmbH Image system for whole body photography and evaluation of the skin image of a human
US20140050416A1 (en) * 2011-03-31 2014-02-20 Optos Plc Identifying and correcting anomalies in an optical image
US9767557B1 (en) * 2016-06-23 2017-09-19 Siemens Healthcare Gmbh Method and system for vascular disease detection using recurrent neural networks
US20170287134A1 (en) * 2016-03-31 2017-10-05 International Business Machines Corporation Annotation of skin image using learned feature

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9760990B2 (en) * 2014-12-14 2017-09-12 International Business Machines Corporation Cloud-based infrastructure for feedback-driven training and image recognition
US9750450B2 (en) * 2015-09-18 2017-09-05 Htc Corporation Method, electronic apparatus, and computer readable medium of constructing classifier for skin-infection detection

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2206273C (en) * 1994-12-01 2006-04-04 Artner, Norbert Skin examination device
US20120008838A1 (en) * 2000-08-07 2012-01-12 Health Discovery Corporation System and method for remote melanoma screening
US20050171439A1 (en) * 2004-01-20 2005-08-04 Michael Maschke Method and device for examining the skin
US7894651B2 (en) 2007-03-02 2011-02-22 Mela Sciences, Inc. Quantitative analysis of skin characteristics
WO2011087807A2 (en) 2009-12-22 2011-07-21 Health Discovery Corporation System and method for remote melanoma screening
US20140050416A1 (en) * 2011-03-31 2014-02-20 Optos Plc Identifying and correcting anomalies in an optical image
WO2013103475A2 (en) * 2011-12-09 2013-07-11 Massachusetts Institute Of Technology Portable optical fiber probe-based spectroscopic scanner for rapid cancer diagnosis
DE202013007374U1 (en) 2013-08-16 2013-11-05 FotoFinder Systems GmbH Image system for whole body photography and evaluation of the skin image of a human
US20170287134A1 (en) * 2016-03-31 2017-10-05 International Business Machines Corporation Annotation of skin image using learned feature
US9767557B1 (en) * 2016-06-23 2017-09-19 Siemens Healthcare Gmbh Method and system for vascular disease detection using recurrent neural networks

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ANDRE ESTEVA ET AL: "Dermatologist-level classification of skin cancer with deep neural networks", NATURE, vol. 542, no. 7639, 25 January 2017 (2017-01-25), London, pages 115 - 118, XP055560219, ISSN: 0028-0836, DOI: 10.1038/nature21056 *
ANDRE ESTEVA; BRETT KUPREL, NATURE, vol. 542, 2 February 2017 (2017-02-02), pages 115 - 118
CIRESAN, D.; MEIER, U.; SCHMIDHUBER, J.: "Multi-column deep neural networks for image classication", CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, 2012, pages 3642 - 3649, XP032232509, DOI: doi:10.1109/CVPR.2012.6248110
KRIZHEVSKY, A.; SUTSKEVER, I.; HINTON, G.E.: "Imagenet classication with deep convolutional neural networks", ADVANCES IN NEURAL , INFORMATION PROCESSING SYSTEMS, vol. 1, 2012, pages 4

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110399916A (en) * 2019-07-24 2019-11-01 淮阴工学院 A Skin Cancer Image Classification Method Based on Image Enhancement and Inception Network
CN112017787A (en) * 2020-08-17 2020-12-01 杭州依图医疗技术有限公司 Medical information AI platform and computing equipment
CN112669959A (en) * 2020-12-17 2021-04-16 中国医学科学院皮肤病医院(中国医学科学院皮肤病研究所) Vitiligo state of illness automatic assessment method based on image
CN112669959B (en) * 2020-12-17 2024-03-29 中国医学科学院皮肤病医院(中国医学科学院皮肤病研究所) Automatic evaluation method for vitiligo conditions based on images
CN113057593A (en) * 2021-03-18 2021-07-02 杭州睿胜软件有限公司 Image recognition method, readable storage medium and electronic device
US12118723B1 (en) * 2023-06-21 2024-10-15 BelleTorus Corporation Compute system with image based skin cancer detection mechanism and method of operation thereof

Also Published As

Publication number Publication date
DE102017010397A1 (en) 2019-05-09

Similar Documents

Publication Publication Date Title
WO2019091509A1 (en) Method for analyzing the skin appearance of a human being in the context of skin cancer screening and apparatus for carrying out same
DE69630935T2 (en) Image processing method and apparatus for automatically detecting areas of a predetermined type of cancer in an intensity image
DE60212917T2 (en) Device for calculating an index of local blood flows
DE10321722A1 (en) Computer-aided diagnosis of multiple energy images
DE102011013505A1 (en) Method and system for the automatic detection and classification of coronary stenoses in cardiac CT volumes
DE102023203884A1 (en) Medical image diagnostic aid device and method for generating and visualizing aid information based on distributions of signal intensities in medical images
DE102022112136A1 (en) MEDICAL IMAGE ANALYZER, METHOD AND MEDICAL IMAGE, VISUALIZATION DEVICE AND METHOD
DE102009027448A1 (en) Knowledge-based segmentation of weakening regions of the head
DE102004061435A1 (en) Method and device for registering lung image data
WO2020173516A1 (en) Method for evaluating skin lesions using artificial intelligence
EP3928680B1 (en) Endoscopic imaging method, endoscope imaging system, and software program product
DE10109586A1 (en) Processing of digital X-ray images obtained using medical fluoroscopy in which a single high dose rate exposure is made in order to accurately identify main objects in low dose rate exposures using a pattern-matching algorithm
DE102009032442B4 (en) Method and device for postprocessing measured values recorded by means of an imaging system
DE202023103114U1 (en) An IoT-enabled brain tumor detection system utilizing a capsule network and an attention mechanism
DE102010028382A1 (en) Method for processing tomographic image data from X-ray computed tomography investigation of liver for recognition of liver tumor, involves performing iterative classification, and calculating image mask from last probability image
DE102021107075A1 (en) Method, system and software program product for creating training data for endoscopic applications
DE202023101413U1 (en) A system for diagnosing hypertrophic cardiomyopathy using deep learning techniques
DE102005048524A1 (en) Anatomical object e.g. lungs, recognizing method for detecting lung cancer, involves selecting number of potential candidate objects from image data and classifying objects to produce anatomical objects with reduced wrong positive rate
DE102021204020B3 (en) Method for transmitting a plurality of medical images
EP3155588B1 (en) Whole-body image recording and image processing system and method for operating same
DE19726226C2 (en) Process for the automated recognition of structures in sections through biological cells or biological tissue
DE102014014814A1 (en) Method for the detection and classification of AMD based on at least two modalities of the respective eye
DE102005022156A1 (en) Method and device for ranking pixels in medical imaging
DE102023118246B4 (en) Method for analyzing a quasi-periodic biological signal
DE202022106114U1 (en) System based on deep learning to detect Alzheimer's disease

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18839667

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 18839667

Country of ref document: EP

Kind code of ref document: A1