WO2019091509A1 - Method for analyzing the skin appearance of a human being in the context of skin cancer screening and apparatus for carrying out same - Google Patents
Method for analyzing the skin appearance of a human being in the context of skin cancer screening and apparatus for carrying out same Download PDFInfo
- Publication number
- WO2019091509A1 WO2019091509A1 PCT/DE2018/000325 DE2018000325W WO2019091509A1 WO 2019091509 A1 WO2019091509 A1 WO 2019091509A1 DE 2018000325 W DE2018000325 W DE 2018000325W WO 2019091509 A1 WO2019091509 A1 WO 2019091509A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- cnn
- image
- images
- lesion
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
Definitions
- the invention relates to a method for examining the skin of a subject, in particular in the context of a skin cancer screening.
- the invention further relates to an apparatus for carrying out the method.
- the typical method for the early detection of malignant melanomas is the monitoring of suspicious naevi over time using digital reflected light microscopy. Images are taken with a special video camera and dermatoscopy attachment (eg FotoFinder medicam®) in 20-70x magnification and stored in a database. Following-up monitoring allows early identification of developing melanomas and removes them at a stage where the chances of recovery are considered high. By comparing repeat exposures at intervals of three to six months, changes are diagnosed in time to specifically excise suspicious lesions. The evaluation of the lesions is the sole responsibility of the dermatologist and depends on his expertise. On average, dermatologists achieve a sensitivity of approx. 80% and a specificity of approx. 80% in early detection of skin cancer.
- the "sensitivity" (true positive rate of a test) refers to the proportion of test-positive persons among all patients in a sample, d. H. the likelihood of diagnosing the patient as ill with a diagnostic test. A high sensitivity is sought when a disease with high security is to be excluded.
- the "specificity" (true-negative rate of a test) describes the proportion of test-negative persons among all non-sufferers of a random sample, ie the probability with one diagnostic test to correctly identify non-sufferers. A high specificity is sought if a disease is to be confirmed with great certainty.
- the "Tübinger Mole Analyzer” (developed under the direction of the University Skin Clinic Tübingen) is a tool to underpin the diagnosis of the dermatologist.Microscopic images of lesions are evaluated according to certain image recognition parameters and these values are compared with values of a reference database (Score) gives the dermatologist further clues to establishing his final diagnosis.
- Score reference database
- the image analysis software uses a filter to remove any image interference caused by the accidental absorption of small air bubbles or caused by hair.
- the next step is a fully automated edge search.
- the software describes the lesion as precisely as possible using a specially developed procedure, taking into account gradients and changes in brightness.
- the most important image-analytical parameters were investigated, which enable a distinction between melanoma and birthmark.
- probability statements can be used to diagnose the melanoma.
- Two models were adapted: one for small lesions that are fully imaged, the other for large lesions protruding beyond the edge of the image.
- the sensitivity is 80 percent, the specificity 82 percent; Sensitivity is 88 percent and specificity 83 percent for the 232 large lesions.
- the system achieves approximately the same diagnostic quality as that of a specialist.
- this expert system is disadvantageous in that the use of the expert system is only validated for one recording medium (camera). Although lesions recorded with different camera models (video camera, digital camera, etc.) can also be evaluated, the results are not validated.
- US Pat. No. 7,994,651 discloses a device and a method that by means of a special computer-aided imaging system (MelaFind®) can for the first time non-invasively record, display and evaluate data of a conspicuous liver spot from deeper skin layers of up to 2.5 mm.
- MelaFind® computer-aided imaging system
- the multispectral use of polarized light (10 different wavelengths from 430 to 950 nm) makes it possible to detect conspicuous growth patterns below the skin surface extremely precisely (resolution up to 20 pm) and the degree of such To assess conspicuousness extremely precisely (sensitivity of 98.3%).
- sensitivity of 98.3% sensitivity of 98.3%.
- an approval study for the US market found that the specificity is relatively low, ie the system often classifies lesions as malignant, which later turned out to be harmless in the histological evaluation. This system offers neither the physician nor the patient added value in skin cancer screening, as almost every birthmark is classified as a risk mother.
- WO / 2011/087807 discloses a system and method for diagnosing melanoma from digital images taken by a remote user with a smartphone or digital camera and transmitted to an image analysis server communicating with a distributed network.
- the image analysis server includes a trained learning machine for classifying images of malignant and benign skin lesions.
- the user-provided image is pre-processed to extract size, shape, and color. These features are then processed with the trained learning machine to classify the suspicious lesion.
- the classification result is post-processed and a risk score is determined, which is transmitted to the remote user.
- a database associated with the server contains geographic matching reference information, i.
- the remote user is provided with contact information from doctors for the treatment of skin cancer.
- Convolutional Neural Network deep convolutional neural network
- Typical models of a Convolutional Neural Network are QuocNet, AlexNet, Inception (GoogLeNet), BN-lnception-v2. Research has shown steady progress in image processing by validating results against ImageNet.
- ImageNet is a database of images used for research projects. Each picture is assigned to a noun. The nouns are hierarchically arranged by the Word Net project. Each noun has an average of more than 500 images.
- ImageNet has been used to train Convolutional Neural Networks (CNN) since its release in 2009 at the IEEE Conference on Computer Vision and Pattern Recognition, and represents an academic benchmark for image recognition.
- CNN Convolutional Neural Network
- the aim is to work with clinical images of the skin to determine the malignancy of a lesion with the help of a CNN.
- the disadvantage here is that the available image material on clinical images is often poorly and not histologically confirmed in terms of their quality, i. to train a CNN is only partially suitable.
- a further object of the invention is to provide a device which is particularly suitable for carrying out said method.
- the advantages achieved by the invention are in particular that a rule-independent assessment of lesions can be based on the microscopic and clinical images that are created in the daily dermatological practice in the context of digital skin cancer screening.
- the invention is independent of the digital recording media, image formats and image resolutions used.
- the combination of microscopic and clinical images as part of an evaluation using a Convolutional Neural Network (CNN) brings the evaluation process as such to a new level and enables a parallel evaluation or a single evaluation based on the microscopic image or the clinical picture.
- CNN Convolutional Neural Network
- FIG. 1 is a schematic flow diagram of part of the method according to the invention
- FIG. 2 shows a schematic flow diagram of a further part of the method according to the invention
- FIG. 1 is a schematic flow diagram of part of the method according to the invention
- FIG. 2 shows a schematic flow diagram of a further part of the method according to the invention
- FIG. 1 is a schematic flow diagram of part of the method according to the invention
- FIG. 2 shows a schematic flow diagram of a further part of the method according to the invention
- FIG. 3 shows a schematic representation of a device which is particularly suitable for carrying out said method
- the method according to the invention provides the following steps according to FIG. 1:
- microscopic images are created by the user to the lesions found using a digital dermatoscope (S1 b). It is up to the user whether he creates microscopic images of all or only selected lesions.
- the microscopic images are assigned to the lesions in the total body mapping images by the prescriptive procedure (Si c).
- the microscopic images are transferred to the evaluation module containing a CNN, which is based, for example, on the GoogleNet Inception v4 CNN architecture.
- the microscopic images are processed as follows:
- the Inception architecture currently requires standardized delivery of 229 x 229 pixel images.
- the microscopic images are usually in a rectangular format and are recorded in a higher resolution. After the microscopic images can come from different recording devices, in addition, the resolution of each recording may vary. Adjusting the image ratio to a 1: 1 ratio for the CNN module can be achieved by cropping the image to a 1: 1 aspect ratio or by filling the rectangular image area to a 1: 1 aspect ratio.
- the method step on which this invention is based therefore provides a combined procedure.
- the image is filled to an image ratio of 1: 1 (so-called padding).
- the image is filled with black pixels on a square image format.
- this image is cropped (so-called cropping), so that they can be taken over in terms of format and resolution of the CNN evaluation module.
- cropping cropping
- a large number of image crops with a picture ratio of 1: 1 and a resolution of 229 x 229 pixels are created from a microscopic image. As a result, no loss of quality must be accepted.
- the lesion can be excised from the image by means of automatic edge recognition and buffered in a new data set.
- the aforementioned processing steps S2a and S2b are then subsequently carried out on this data record, with the advantage that less image information is lost in the process.
- a CNN consists of one or more convolutional layers, often with a sub-sampling layer followed by one or more fully connected layers as in a conventional neural network.
- the design of a CNN is based on the visual cortex in the brain.
- the visual cortex contains many cells responsible for detecting light in small overlapping subregions of the visual field. These are called receptor fields.
- the cells act as local filters for the input area, while more complex cells have larger receptor fields.
- the folding layer in a CNN performs the same function as the cells in the visual cortex.
- Each element of a layer receives inputs from different elements that are in close proximity to the previous layer and thus are quasi-local receptor fields. With local receptor fields, elementary traits such as edges, endpoints, corners, etc. can be extracted, which are then combined by means of higher layers.
- a manually developed feature extraction tool collects relevant information from the input and removes irrelevant components.
- the extraction tool is followed by a trainable classifier, a conventional neural network, which classifies feature vectors into classes.
- trainable classifier a conventional neural network
- folding layers assume the function of the feature extraction tool.
- the CNN structure used in this invention consists of 27 layers, the first layer representing the input image and the last layer the classification and a confidence value.
- certain filter methods are applied to different pixel settings to extract as much information from the images as possible. Some filters extract certain averages or maximums.
- the model is generalized over the penultimate layer.
- CNN networks work best with large datasets. For this purpose, a very well-trained data set (over 1.2 million images) with excellent performance with regard to general image recognition is used and adapts to the new task for the detection of skin lesions.
- transfer learning This method is referred to as "transfer learning.”
- the existing model is initialized with adjusted weighting values, so that it is finally able to classify a lesion.
- the specific training of the invention was used Over 25,000 dermatoscopic images of skin lesions were used, which were diagnosed as either malignant or benign by histology or by follow-up without change.
- image sections produced according to S2a and S2b are now transferred by the CNN evaluation module (S3) and evaluated with regard to their malignancy (S4a).
- the image sections are in each case entered several times into the CNN evaluation module in different orientations, i. in different angles and rotations.
- the final result is then displayed in the form of a weight value for the affected lesion on the output unit for the user.
- a microscopic image is always associated with a clinical image
- a partial detail is created and stored by the processing unit in a supplementary method step (see FIG. 2) from the clinical image.
- the extraction is performed by an image recognition and processing function (software) installed on the processing unit. If this detail is subsequently displayed in full resolution, the dermoscopic structures of the lesion, such as color, diameter, structure, and limitation, can be easily recognized on the basis of this clinical image. Subsequently, this record is provided for training the CNN by being entered into the CNN according to the usual procedure (S6).
- inventive method can also be used in addition to clinical images, because after appropriate training effort based on the clinical pictures of a lesion already made a risk assessment in terms of malignancy.
- the lesion is a melanocytic or a non-melanocytic lesion. Having the demarcation between melanocytic and non-melanocytic lesions is expensive for the doctor, a corresponding evaluation by the method according to the invention provides a clear added value for the medical diagnosis.
- melanocytic lesion refers to a skin area that differs in color from its surroundings. responsible for the mostly brownish color are the pigment cells of the skin - the melanocytes. This lesion is called a nevus.
- Non-melanocytic lesions are understood to be due to various factors related to changes in the epidermis. The causes are especially chronic light damage or infection with certain viruses in question. Compared to the melanocytic lesions, they are delineated in a multi-step procedure. Common non-melanocytic lesions include, for example, actinic keratosis or Bowen's disease, a precursor to the spinal biome, and basal cell carcinomas.
- Actinic keratoses may be dark in color, so the doctor may initially assume a melanocytic lesion.
- the method is analogous to the method for determining the weighting value in terms of malignancy.
- the microscopic images of the lesion are prepared for transfer to the CNN and transferred to it.
- the CNN has previously been trained on the basis of training data sets by means of images of melanocytic and non-melanocytic lesions and can issue a weighting value in this regard.
- the object according to the invention is achieved by a computerized device which is equipped with a receiving unit for receiving clinical images of skin lesions as well as the associated microscopic images of the skin lesion of a human or animal. Further, the device has a processing unit configured to process the received clinical images of skin lesions and the associated microscopic images of the skin lesions, ie to prepare the images for delivery to a Convolutional Neural Network (CNN). Further, the device has a provisioning unit configured to hold a Convolutional Neural Network (CNN). Since the operation of a Convolutional Neural Network (CNN) requires significant computing power, the provisioning unit is typically spatially separate from the receiving and processing unit and the various units are connected via a network line or the Internet.
- CNN Convolutional Neural Network
- the receiving and processing unit can for example consist of a commercially available Total Body Mapping System (eg FotoFinder bodystudio ATBM), as disclosed in DE 20 2013 007 374U1. It uses a high-resolution digital camera (resolution 24 megapixels or higher) to create the clinical images of the human skin of individual body regions.
- the processing unit uses the high-resolution images to extract individual lesions from the clinical image and provide them in their full resolution for further processing. The extraction is performed by an image recognition and processing function (software) installed on the processing unit. If this detail is then displayed in full resolution, you can already use this clinical picture of the dermoscopic structures of the lesion such as color, diameter, structure, limitation are well recognized.
- the extracted images are saved as a new record and linked to the associated clinical record. These two data records can then be transferred to the CNN for further evaluation.
- the data set of the clinical image can be used to train the CNN, the result of the evaluation of the associated microscopic image being transmitted in the form of the weighting value.
- This weighting value defines the classification of the clinical picture as benign or malignant.
- the histological findings for the lesion can also be transferred. If a lesion is classified by the doctor as malignant and surgically removed, the malignancy of the lesion is usually clarified as part of a histological examination. The result of the histological examination can be linked to the record of the microscopic image and thus also to the clinical recording of the lesion, thus increasing the validity of the data set as a training dataset for the CNN.
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Pathology (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Epidemiology (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Image Analysis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Investigating Or Analysing Biological Materials (AREA)
Abstract
Description
Beschreibung description
Verfahren zur Auswertung des Hautbildes eines Menschen im Rahmen der Hautkrebs- Vorsorgeuntersuchung sowie Vorrichtung zu dessen Betrieb Method for evaluating the skin image of a human in the context of skin cancer screening and device for its operation
Die Erfindung bezieht sich auf ein Verfahren zur Untersuchung der Haut eines Probanden, insbesondere im Rahmen einer Hautkrebs-Vorsorgeuntersuchung. Die Erfindung bezieht sich des Weiteren auf eine Vorrichtung zur Durchführung des Verfahrens. The invention relates to a method for examining the skin of a subject, in particular in the context of a skin cancer screening. The invention further relates to an apparatus for carrying out the method.
Hinsichtlich der Häufigkeit von Hautkrebs-Erkrankungen ist in jüngerer Zeit ein deutlicher Anstieg festzustellen. Ursache hierfür ist insbesondere der Trend, sich vermehrt intensiver Sonnenbestrahlung auszusetzen. Die häufigste tödlich verlaufende Hauterkrankung ist das sogenannte maligne Melanom. Bei einer frühzeitigen Diagnose der Hauterkrankung und einer sofort eingeleiteten Therapie, die in der Regel die chirurgische Entfernung des erkrankten Gewebes umfasst, bestehen gute Heilungsaussichten. Problematisch ist jedoch die frühzeitige Erkennung. Die modernsten Methoden zur Früherkennung maligner Melanome sind die digitale Auflichtmikroskopie sowie die Analyse einzelner Naevi und die Analyse des gesamten Hautbildes zum Aufzeigen neuer und veränderter Läsionen, das sogenannte Total Body Mapping. Eine Kombination aus Auflichtmikroskopie und Total Body Mapping stellt den Goldstandard der Hautkrebsvorsorge dar und dient dazu, Veränderungen pigmentierter Hautläsionen noch frühzeitiger festzustellen und unnötige Exzisionen zu vermeiden. There has recently been a significant increase in the incidence of skin cancer. The reason for this is in particular the trend to expose oneself increasingly to intensive sunshine. The most common fatal skin disease is the so-called malignant melanoma. Early diagnosis of skin disease and immediate therapy, which usually involves the surgical removal of the diseased tissue, provides good prospects for cure. However, the problem is the early detection. The most modern methods for the early detection of malignant melanomas are the digital reflected light microscopy as well as the analysis of individual nevi and the analysis of the entire skin image to show new and changed lesions, the so-called Total Body Mapping. A combination of reflected-light microscopy and total body mapping represents the gold standard of skin cancer screening and serves to detect changes in pigmented skin lesions even earlier and to avoid unnecessary excisions.
Die typische Methode zur Früherkennung maligner Melanome ist die Überwachung verdächtiger Naevi im Zeitablauf mit Hilfe der digitalen Auflichtmikroskopie. Dabei werden mit einer speziellen Videokamera und Dermatoskopievorsatz (z. B. FotoFinder medicam®) Bilder in 20-70facher Vergrößerung gemacht und in einer Datenbank abgespeichert. Durch die Verlaufskontrolle können entstehende Melanome frühzeitig erkannt und in einem Stadium entfernt werden, in dem die Heilungschancen als hoch gelten. Durch den Vergleich von Wiederholungsaufnahmen in Abständen von drei bis sechs Monaten werden Veränderungen rechtzeitig diagnostiziert, um suspekte Läsionen gezielt zu exzidieren. Die Beurteilung der Läsionen liegt in der alleinigen Verantwortung des Dermatologen uns ist von dessen Expertise abhängig. Im Durchschnitt erreichen Dermatologen bei der Hautkrebsfrüherkennung eine Sensitivität von ca. 80% und einer Spezifität von ca. 80%. The typical method for the early detection of malignant melanomas is the monitoring of suspicious naevi over time using digital reflected light microscopy. Images are taken with a special video camera and dermatoscopy attachment (eg FotoFinder medicam®) in 20-70x magnification and stored in a database. Follow-up monitoring allows early identification of developing melanomas and removes them at a stage where the chances of recovery are considered high. By comparing repeat exposures at intervals of three to six months, changes are diagnosed in time to specifically excise suspicious lesions. The evaluation of the lesions is the sole responsibility of the dermatologist and depends on his expertise. On average, dermatologists achieve a sensitivity of approx. 80% and a specificity of approx. 80% in early detection of skin cancer.
Die "Sensitivität" (richtig positive Rate eines Tests) bezeichnet den Anteil der test-positiven Personen unter allen Erkrankten einer Stichprobe, d. h. die Wahrscheinlichkeit, mit einem diagnostischen Test die Kranken auch als krank zu identifizieren. Eine hohe Sensitivität wird angestrebt, wenn eine Erkrankung mit hoher Sicherheit ausgeschlossen werden soll. The "sensitivity" (true positive rate of a test) refers to the proportion of test-positive persons among all patients in a sample, d. H. the likelihood of diagnosing the patient as ill with a diagnostic test. A high sensitivity is sought when a disease with high security is to be excluded.
Die "Spezifität" (richtig-negative Rate eines Tests) beschreibt den Anteil der Test-negativen Personen unter allen Nicht-Erkrankten einer Stichprobe, d. h. die Wahrscheinlichkeit, mit einem diagnostischen Test Nicht-Erkrankte korrekt zu identifizieren. Eine hohe Spezifität wird angestrebt, wenn eine Erkrankung mit großer Sicherheit bestätigt werden soll. The "specificity" (true-negative rate of a test) describes the proportion of test-negative persons among all non-sufferers of a random sample, ie the probability with one diagnostic test to correctly identify non-sufferers. A high specificity is sought if a disease is to be confirmed with great certainty.
Für die Unterscheidung zwischen gutartigen Muttermalen und dem malignen Melanom ist eine jahrelange klinische Erfahrung erforderlich. Selbst Spezialisten können anhand des klinischen Bildes nicht immer sicher entscheiden, ob es sich um ein Melanom oder ein auffälliges Muttermal handelt. Zur auflichtmikroskopischen Bewertung von Muttermalen wurden in den letzten Jahren einige unterschiedliche Scores ( ABCD Regel, 7 Point Rule, 3 Point Rule) erarbeitet, die für die Diagnose von Melanomen hilfreich sein sollen - insbesondere für Dermatologen in der Ausbildung, für auf diesem Gebiet weniger erfahrene Dermatologen und für schwierig zu diagnostizierende Läsionen. Die Bewertung von Muttermalen hinsichtlich ihrer Malignität wird ferner durch zahlreiche computergestützte Expertensysteme unterstützt. So ist zum Beispiel der„Tübinger Mole Analyzer" (entwickelt unter der Leitung der Universitätshautklinik Tübingen) ein Hilfsmittel zur Untermauerung der Diagnose des Hautarztes. Mikroskopische Aufnahmen von Läsionen werden nach bestimmten Bilderkennungsparametern ausgewertet und diese Werte mit Werten einer Referenzdatenbank verglichen. Ein daraus ermittelter Gesamtwert (Score) gibt dem Dermatologen weitere Anhaltspunkte zur Festlegung seiner finalen Diagnose. The distinction between benign birthmarks and malignant melanoma requires years of clinical experience. Even specialists can not always decide with certainty on the basis of the clinical picture, whether it is a melanoma or a conspicuous birthmark. For the light microscopic assessment of birthmarks, a number of different scores (ABCD Rule, 7 Point Rule, 3 Point Rule) have been developed in recent years to assist in the diagnosis of melanoma, especially for dermatologists in training, and less experienced in this field Dermatologists and difficult to diagnose lesions. The evaluation of birthmarks for their malignancy is further supported by numerous computer-assisted expert systems. For example, the "Tübinger Mole Analyzer" (developed under the direction of the University Skin Clinic Tübingen) is a tool to underpin the diagnosis of the dermatologist.Microscopic images of lesions are evaluated according to certain image recognition parameters and these values are compared with values of a reference database (Score) gives the dermatologist further clues to establishing his final diagnosis.
Die Bildanalyse-Software entfernt zunächst mittels eines Filters Bildstörungen, die etwa durch die versehentliche Aufnahme von kleinen Luftbläschen entstehen oder durch Haare verursacht werden. Im nächsten Schritt erfolgt eine vollautomatisierte Randsuche. Dabei beschreibt die Software über ein eigens entwickeltes Verfahren unter Berücksichtigung von Gradienten und Helligkeitsveränderungen möglichst exakt die Läsion. In einer an der Universitäts-Hautklinik Tübingen eigens dafür durchgeführten Studie wurden die wichtigsten bildanalytischen Parameter untersucht, die eine Unterscheidung zwischen Melanom und Muttermal ermöglichen. Mit einem komplexen Modell, in das die Größe der Läsion, spezielle Farbwerte und ein Texturmaß eingehen, lassen sich Wahrscheinlichkeitsaussagen zur Melanomdiagnose machen. Es wurden zwei Modelle angepasst: eines für kleine Läsionen, die vollständig abgebildet werden, das andere für über den Rand des Bildes hinausragende, große Läsionen. Für 605 kleine Läsionen liegt die Sensitivität bei 80 Prozent, die Spezifität bei 82 Prozent; für die 232 großen Läsionen beträgt die Sensitivität 88 Prozent und die Spezifität 83 Prozent. Damit erreicht das System in etwa die gleiche Diagnosequalität wie die eines Spezialisten. Obwohl die in einer Studie nachgewiesene Spezifität und Sensitivität gute Werte erreicht, ist bei diesem Expertensystem nachteilig, dass die Verwendung des Expertensystems nur für ein Aufnahmemedium (Kamera) validiert ist. Läsionen die mit davon abweichenden Kameramodellen (Videokamera, Digitalkamera etc.) aufgenommen wurden, können zwar auch auswertetet werden, die Ergebnisse sind jedoch nicht validiert. First of all, the image analysis software uses a filter to remove any image interference caused by the accidental absorption of small air bubbles or caused by hair. The next step is a fully automated edge search. The software describes the lesion as precisely as possible using a specially developed procedure, taking into account gradients and changes in brightness. In a study carried out at the University Skin Clinic Tübingen, the most important image-analytical parameters were investigated, which enable a distinction between melanoma and birthmark. With a complex model that includes the size of the lesion, special color values and a texture measure, probability statements can be used to diagnose the melanoma. Two models were adapted: one for small lesions that are fully imaged, the other for large lesions protruding beyond the edge of the image. For 605 small lesions the sensitivity is 80 percent, the specificity 82 percent; Sensitivity is 88 percent and specificity 83 percent for the 232 large lesions. Thus, the system achieves approximately the same diagnostic quality as that of a specialist. Although the specificity and sensitivity demonstrated in a study reached good levels, this expert system is disadvantageous in that the use of the expert system is only validated for one recording medium (camera). Although lesions recorded with different camera models (video camera, digital camera, etc.) can also be evaluated, the results are not validated.
Aus US7894651 ist eine Vorrichtung und ein Verfahren bekannt, dass mittels eines speziellen computergestützten Bildgebungssystems (MelaFind®) erstmals nicht-invasiv auch Daten eines auffälligen Leberflecks aus tieferen Hautschichten von bis zu 2,5 mm erfasst, dargestellt und auswerten kann. Die multispektrale Verwendung von polarisiertem Licht (10 verschiedenen Wellenlängen von 430 bis 950nm) ermöglicht es, auffällige Wachstumsmuster unterhalb der Hautoberfläche extrem genau nachzuweisen (Auflösung bis zu 20pm) und den Grad einer solchen Auffälligkeit äußerst präzise einzustufen (Sensitivität von 98,3%). In einer Zulassungsstudie für den US- amerikanischen Markt wurde jedoch festgestellt, dass die Spezifität relativ niedrig ist, d.h. das System häufig Läsionen als malignen einstuft, die sich später im Rahmen der histologischen Auswertung als harmlos herausstellten. Dieses System bietet weder dem Arzt als auch dem Patienten einen Mehrwert in der Hautkrebsfrüherkennung, da nahezu jedes Muttermal als Risikomuttermal eingestuft wird. US Pat. No. 7,994,651 discloses a device and a method that by means of a special computer-aided imaging system (MelaFind®) can for the first time non-invasively record, display and evaluate data of a conspicuous liver spot from deeper skin layers of up to 2.5 mm. The multispectral use of polarized light (10 different wavelengths from 430 to 950 nm) makes it possible to detect conspicuous growth patterns below the skin surface extremely precisely (resolution up to 20 pm) and the degree of such To assess conspicuousness extremely precisely (sensitivity of 98.3%). However, an approval study for the US market found that the specificity is relatively low, ie the system often classifies lesions as malignant, which later turned out to be harmless in the histological evaluation. This system offers neither the physician nor the patient added value in skin cancer screening, as almost every birthmark is classified as a risk mother.
Nachteil aller Expertensysteme ist, dass sie hochspezialisiert auf ein schmales Wissensgebiet sind und se die Grenzen ihrer Kompetenz nicht erkennen. Werden also nicht passende Bilder in ein Expertensystem eingeben, kann dieses Diagnoseempfehlungen oder Risikoeinschätzungen geben, die schlichtweg falsch sind, weil das Ausgangsmaterial ungeeignet war. Insofern bedarf ein Expertensystem immer einen kompetenten Anwender. Disadvantage of all expert systems is that they are highly specialized in a narrow field of knowledge and do not recognize the limits of their competence. So if incorrect images are entered into an expert system, it can give diagnostic recommendations or risk assessments that are simply wrong because the source material was inappropriate. In this respect, an expert system always requires a competent user.
Aus WO/2011/087807 ist ein System und Verfahren zur Diagnose eines Melanoms aus digitalen Bildern, die von einem entfernten Benutzer mit einem Smartphone oder einer Digitalkamera aufgenommen wurden und an einen Bildanalyseserver übertragen, der mit einem verteilten Netzwerk kommuniziert, bekannt. Der Bildanalyseserver enthält eine trainierte Lernmaschine zur Klassifizierung von Bildern von malignen und benignen Hautläsionen. Das vom Benutzer bereitgestellte Bild wird vorab verarbeitet, um Größe, Form und Farbe zu extrahieren. Diese Features werden dann mit der trainierten Lernmaschine verarbeitet, um die verdächtige Läsion zu klassifizieren. Das Klassifizierungsergebnis wird nachverarbeitet und eine Risikokennzahl ermittelt, die an den entfernten Benutzer übertragen wird. Eine mit dem Server verknüpfte Datenbank enthält Verweisinformationen zum geografischen Abgleich, d.h. dem Fernnutzer werden Kontaktinformationen von Ärzten zur Behandlung von Hautkrebs bereitgestellt. WO / 2011/087807 discloses a system and method for diagnosing melanoma from digital images taken by a remote user with a smartphone or digital camera and transmitted to an image analysis server communicating with a distributed network. The image analysis server includes a trained learning machine for classifying images of malignant and benign skin lesions. The user-provided image is pre-processed to extract size, shape, and color. These features are then processed with the trained learning machine to classify the suspicious lesion. The classification result is post-processed and a risk score is determined, which is transmitted to the remote user. A database associated with the server contains geographic matching reference information, i. The remote user is provided with contact information from doctors for the treatment of skin cancer.
Die Verwendung von sogenannter Künstlicher Intelligenz zur Musterverarbeitung und zur Erstellung von Diagnoseempfehlungen ist seit den früheren 1960 Jahren bekannt. Man analysierte, ausgehend von der Neurophysiologie, die Informationsarchitektur des menschlichen und tierischen Gehirns. Die Modellierung in Form künstlicher neuronaler Netze illustrierte, wie aus einer einfachen Grundstruktur komplexe Musterverarbeitung geleistet werden kann. Zur Untersuchung dieser Verfahren hat sich die Neuroinformatik als wissenschaftliche Disziplin entwickelt .Diese Art von Lernen beruht im Gegensatz zu Expertensystemen nicht auf der Herleitung und Anwendung von Regeln, denn die besonderen Fähigkeiten des menschlichen Gehirns sind nicht auf einen regelbasierten Intelligenz- Begriff reduzierbar. The use of so-called artificial intelligence for pattern processing and diagnostic recommendations has been known since the early 1960's. Based on neurophysiology, the information architecture of the human and animal brain was analyzed. Modeling in the form of artificial neural networks illustrated how complex pattern processing can be made from a simple basic structure. Neuroinformatics has become a scientific discipline for studying these techniques. Unlike expert systems, this type of learning is not based on the derivation and application of rules, because the special abilities of the human brain are not reducible to a rule-based concept of intelligence.
Das menschliche Gehirn tut sich bei der Bilderkennung leicht. Es braucht keine Anstrengung, um z.B. einen Löwen und einen Tiger voneinander unterscheiden, ein Zeichen zu lesen oder das Gesicht eines Menschen zu erkennen. Es scheint einfach, weil das menschliche Gehirn unglaublich gut darin ist, Bilder zu verstehen. Hingegen ist eine computergestützte Bilderkennung eine komplexe Aufgabe. In den letzten Jahren hat der Bereich des maschinellen Lernens enorme Fortschritte bei der Bewältigung dieser schwierigen Aufgabe gemacht. Ein als Convolutional Neural Network (tiefe Faltungs-Neuronales Netzwerk) bezeichnete Form von Künstlicher Intelligenz erreicht eine vernünftige Leistung bei schweren visuellen Erkennungsaufgaben, wobei die Ergebnisse in manchen Bereichen mit der menschlichen Leistung übereinstimmen oder diese sogar übertreffen können. The human brain is easy at image recognition. It takes no effort, for example, to distinguish a lion and a tiger from each other, to read a sign or to recognize the face of a human being. It just seems because the human brain is incredibly good at understanding images. By contrast, computer-aided image recognition is a complex task. In recent years, machine learning has made tremendous progress in tackling this difficult task. A form of artificial intelligence called Convolutional Neural Network (deep convolutional neural network) achieves one Reasonable performance in severe visual recognition tasks, with results in some areas that match or even surpass human performance.
Typische Modelle eines Convolutional Neural Networks sind QuocNet, AlexNet, Inception (GoogLeNet), BN-lnception-v2. Die Forschung hat einen stetigen Fortschritt in der Bildverarbeitung gezeigt, indem sie Ergebnisse gegen ImageNet validiert haben. ImageNet ist eine Datenbank von Bildern, welche für Forschungsprojekte eingesetzt wird. Jedes Bild wird einem Substantiv zugeordnet. Die Substantive sind durch das Word Net-Projekt hierarchisch angeordnet. Zu jedem Substantiv gibt es im Schnitt mehr als 500 Bilder. Typical models of a Convolutional Neural Network are QuocNet, AlexNet, Inception (GoogLeNet), BN-lnception-v2. Research has shown steady progress in image processing by validating results against ImageNet. ImageNet is a database of images used for research projects. Each picture is assigned to a noun. The nouns are hierarchically arranged by the Word Net project. Each noun has an average of more than 500 images.
ImageNet wird seit der Veröffentlichung, welche 2009 auf der IEEE Conference on Computer Vision and Pattern Recognition stattfand, zum Trainieren von Convolutional Neural Networks (CNN) verwendet - und stellt einen akademischen Maßstab für Bilderkennung dar. ImageNet has been used to train Convolutional Neural Networks (CNN) since its release in 2009 at the IEEE Conference on Computer Vision and Pattern Recognition, and represents an academic benchmark for image recognition.
Basierend auf den guten Ergebnissen der Convolutional Neural Network in der allgemeinen Bilderkennung wird in der Medizin und insbesondere in der Dermatologie daran gearbeitet, mit Hilfe von einem Convolutional Neural Network (CNN) die Hautkrebsfrüherkennung zu verbessern. Based on the good results of the Convolutional Neural Network in general image recognition, medicine, and in particular dermatology, is working to improve early detection of skin cancer with the help of a Convolutional Neural Network (CNN).
Es wird dabei gezielt daran gearbeitet, anhand von klinischen Bildern der Haut die Malignität einer Lasion mit Hilfe eines CNN zu bestimmen. Nachteilig erweist sich hierbei, dass das verfügbare Bildmaterial an klinischen Bildern hinsichtlich ihrer Qualität oftmals schlecht und nicht histologisch gesichert ist, d.h. zum Trainieren eines CNN nur bedingt geeignet ist. The aim is to work with clinical images of the skin to determine the malignancy of a lesion with the help of a CNN. The disadvantage here is that the available image material on clinical images is often poorly and not histologically confirmed in terms of their quality, i. to train a CNN is only partially suitable.
Der Erfindung liegt daher die Aufgabe zugrunde, ein vor dem vorstehend beschriebenen Hintergrund verbessertes Verfahren zur Untersuchung der Haut anhand von mikroskopischen Bildern unter Einbeziehung eines CNN vorzuschlagen. Dieses Verfahren soll ferner durch die ergänzende Auswertung von klinischen Bildern zusammen mit den mikroskopischen Bildern verfeinert werden. Der Erfindung liegt weiterhin die Aufgabe zugrunde, eine zur Durchführung des genannten Verfahrens besonders geeignete Vorrichtung anzugeben. It is therefore the object of the invention to propose a method for the examination of the skin which has been improved on the background described above on the basis of microscopic images involving a CNN. This method should also be refined by the complementary evaluation of clinical images together with the microscopic images. A further object of the invention is to provide a device which is particularly suitable for carrying out said method.
Die mit der Erfindung erzielten Vorteile bestehen insbesondere darin, dass eine regelunabhängige Bewertung von Läsionen anhand der mikroskopischen und klinischen Bilder erfolgen kann, die in der täglichen dermatologischen Praxis im Rahmen der digitalen Hautkrebsvorsorge erstellt werden. Die Erfindung ist unabhängig von den verwendeten digitalen Aufnahmemedien, Bildformaten und Bildauflösungen. Die Kombination von mikroskopischen und klinischen Bildern im Rahmen einer Auswertung mittels eines Convolutional Neural Networks (CNN) bringt den Auswertevorgang als solche auf eine neue Ebene und ermöglicht eine parallele Auswertung oder eine Einzelauswertung anhand des mikroskopischen Bildes oder des klinischen Bildes. The advantages achieved by the invention are in particular that a rule-independent assessment of lesions can be based on the microscopic and clinical images that are created in the daily dermatological practice in the context of digital skin cancer screening. The invention is independent of the digital recording media, image formats and image resolutions used. The combination of microscopic and clinical images as part of an evaluation using a Convolutional Neural Network (CNN) brings the evaluation process as such to a new level and enables a parallel evaluation or a single evaluation based on the microscopic image or the clinical picture.
Bezüglich des Verfahrens wird die Aufgabe erfindungsgemäß gelöst durch die Merkmale des Anspruchs 3 ff.. Weitere Vorteile und Merkmale der Erfindung ergeben sich aus nachfolgender Beschreibung eines bevorzugten Ausführungsbeispiels anhand der beigefügten Zeichnungen. With regard to the method, the object is achieved according to the invention by the features of claim 3 et seq. Further advantages and features of the invention will become apparent from the following description of a preferred embodiment with reference to the accompanying drawings.
Dabei zeigt: Showing:
Fig. 1 ein schematisiertes Ablaufdiagramm eines Teils des erfindungsgemäßen Verfahrens; Fig. 2 ein schematisiertes Ablaufdiagramm eines weiteren Teils des erfindungsgemäßen Verfahrens; Fig. 1 is a schematic flow diagram of part of the method according to the invention; FIG. 2 shows a schematic flow diagram of a further part of the method according to the invention; FIG.
Fig. 3 eine schematische Darstellung einer zur Durchführung des genannten Verfahrens besonders geeignete Vorrichtung; 3 shows a schematic representation of a device which is particularly suitable for carrying out said method;
Das erfindungsgemäße Verfahren sieht folgende Schritte gemäß Fig.1 vor: The method according to the invention provides the following steps according to FIG. 1:
Zunächst erfolgt die Aufnahme digitaler Bilder eines Untersuchungskörpers (Patienten) anhand einer Mehrzahl vorgegebener Positionierungen des Untersuchungskörpers bezüglich des Abbildungssystems durch das Abbildungssystem (S1 a). Dieser Verfahrensschritt wird als Total Body Mapping bezeichnet. First, digital images of an examination body (patient) are recorded on the basis of a plurality of predetermined positions of the examination body with respect to the imaging system by the imaging system (S1 a). This process step is called Total Body Mapping.
In einem nächsten Verfahrensschritt werden vom Anwender zu den aufgefunden Läsionen mikroskopische Bilder mittels eines digitalen Dermatoskops erstellt (S1 b). Dem Anwender steht es frei, ob er von allen aufgefundenen oder nur von ausgewählten Läsionen mikroskopische Aufnahmen erstellt. Die mikroskopischen Aufnahmen werden durch den vorgebenden Bedienungsablauf den Läsionen in den Total Body Mapping Aufnahmen zugeordnet (Si c). In a next method step, microscopic images are created by the user to the lesions found using a digital dermatoscope (S1 b). It is up to the user whether he creates microscopic images of all or only selected lesions. The microscopic images are assigned to the lesions in the total body mapping images by the prescriptive procedure (Si c).
In einem weiteren Verfahrensschritt (S2) werden die mikroskopischen Aufnahmen an das ein CNN enthaltenes Auswertemodul übergeben, das zum Beispiel auf dem GoogleNet Inception v4 CNN Architektur basiert. Dazu werden die mikroskopischen Bilder wie folgt verarbeitet: In a further method step (S2), the microscopic images are transferred to the evaluation module containing a CNN, which is based, for example, on the GoogleNet Inception v4 CNN architecture. For this, the microscopic images are processed as follows:
Die Inception Architektur erfordert derzeit eine standardisierte Bereitstellung der Bilder im Format 229 x229 Pixel. Die mikroskopischen Aufnahmen liegen in der Regel in einem rechteckigen Format vor und sind in einer höheren Auflösung aufgenommen. Nachdem die mikroskopischen Aufnahmen von verschiedenen Aufnahmegeräten stammen können, zusätzlich kann die Auflösung der jeweiligen Aufnahme variieren. Die Anpassung des Bildverhältnisses auf ein Verhältnis 1 : 1 für das CNN Modul kann durch Zuschneiden des Bildes auf ein Bildverhältnis 1 : 1 oder durch Auffüllen des rechteckigen Bildbereichs zu einem Bildverhältnis 1 : 1 erfolgen. Dabei ist jedoch nachteilig, dass beim Zuschneiden wichtige Bildinformationen der Läsion verloren gehen könnten, wenn diese nicht zentriert, also bildmittig aufgenommen wurde. Das Auffüllen des Bildbereichs auf ein Bildverhältnis 1 : 1 hat jedoch den Nachteil, dass das Bild noch größer wird und mit Bildinformationen gefüllt wird, die für die Auswertung nicht relevant sind, da nachträglich hinzugefügt. Zum anderen muss die Auflösung anschließend auf 229 x 229 Pixel reduziert werden, so dass also durch das Auffüllen und anschließende Komprimieren noch ein zusätzlicher Qualitätsverlust erfolgt. Bei beiden vorgenannten Bearbeitungsschritten ginge also für die Auswertung wichtige Bildinformation verloren. The Inception architecture currently requires standardized delivery of 229 x 229 pixel images. The microscopic images are usually in a rectangular format and are recorded in a higher resolution. After the microscopic images can come from different recording devices, in addition, the resolution of each recording may vary. Adjusting the image ratio to a 1: 1 ratio for the CNN module can be achieved by cropping the image to a 1: 1 aspect ratio or by filling the rectangular image area to a 1: 1 aspect ratio. However, it is disadvantageous that when cutting important image information of the lesion could be lost if it was not centered, so was taken in the center. However, filling the image area to an image ratio of 1: 1 has the disadvantage that the image becomes even larger and is filled with image information that is not relevant for the evaluation, since it is subsequently added. On the other hand, the resolution must then be reduced to 229 x 229 pixels, so that by filling and Subsequent compressing still an additional quality loss takes place. In the case of both aforementioned processing steps, important image information would therefore be lost for the evaluation.
Der dieser Erfindung zugrunde liegende Verfahrensschritt sieht daher eine kombinierte Vorgehensweise vor. Zunächst wird das Bild auf ein Bildverhältnis von 1 : 1 aufgefüllt (sog. Padding). Dabei wird das Bild mit schwarzen Pixeln auf ein quadratisches Bildformat aufgefüllt. Anschließend wird dieses Bild zugeschnitten (sog. cropping), so dass sie hinsichtlich Format und Auflösung vom CNN-Auswertemodul übernommen werden können. Es wird also aus einem mikorskopischen Bild je nach Größe und Auflösung eine Vielzahl von Bildzuschnitten mit einem Bildverhältnis 1 :1 und einer Auflösung von 229 x 229 Pixel erstellt. Dadurch muss kein Qualitätsverlust hingenommen werden. Sofern es sich um eine melanozytäre Läsion handelt, die im Bildbereich der mikroskopischen Aufnahme vollständig abgebildet ist, kann mittels automatischer Randerkennung die Läsion aus dem Bild ausgeschnitten werden und in einem neuen Datensatz zwischengespeichert werden. Auf diesen Datensatz werden dann anschließend die vorgenannten Bearbeitungsschritte S2a und S2b durchgeführt mit dem Vorteil, dass dabei weniger Bildinformationen verloren gehen. The method step on which this invention is based therefore provides a combined procedure. First, the image is filled to an image ratio of 1: 1 (so-called padding). The image is filled with black pixels on a square image format. Subsequently, this image is cropped (so-called cropping), so that they can be taken over in terms of format and resolution of the CNN evaluation module. Depending on the size and resolution, a large number of image crops with a picture ratio of 1: 1 and a resolution of 229 x 229 pixels are created from a microscopic image. As a result, no loss of quality must be accepted. If it is a melanocytic lesion that is completely imaged in the image area of the microscopic image, the lesion can be excised from the image by means of automatic edge recognition and buffered in a new data set. The aforementioned processing steps S2a and S2b are then subsequently carried out on this data record, with the advantage that less image information is lost in the process.
Ein CNN besteht aus einer oder mehreren Faltungsschichten, häufig mit einer Sub-Sampling- Schicht, die von einer oder mehreren voll verbundenen Schichten wie in einem herkömmlichen neuronalen Netz gefolgt wird. Das Design eines CNN orientiert sich an der Sehrinde im Gehirn. Die Sehrinde enthält viele Zellen, die dafür verantwortlich sind, Licht in kleinen sich überlappenden Unterbereichen des Gesichtsfelds zu erkennen. Diese werden Rezeptorenfelder genannt. Die Zellen agieren als lokale Filter für den Eingabebereich, während komplexere Zellen größere Rezeptorenfelder haben. Die Faltungsschicht in einem CNN führt die gleiche Funktion aus wie die Zellen in der Sehrinde. Jedes Element einer Schicht empfängt Eingaben von verschiedenen Elementen, die in enger Nachbarschaft in der vorhergehenden Schicht liegen und damit quasi lokale Rezeptorenfelder darstellen. Mit lokalen Rezeptorenfeldern lassen sich elementare Sehmerkmale wie Kanten, Endpunkte, Ecken usw. extrahieren, die dann mittels höherer Schichten kombiniert werden. Im konventionellen Modell der Muster-/Bilderkennung sammelt ein manuell entwickeltes Merkmal-Extraktionswerkzeug relevante Informationen aus der Eingabe und entfernt irrelevante Bestandteile. Dem Extraktionswerkzeug folgt ein trainierbarer Klassifizierer, ein herkömmliches neuronales Netz, das Merkmal-Vektoren in Klassen einteilt. In einem CNN übernehmen dagegen Faltungsschichten die Funktion des Merkmal-Extraktionswerkzeugs. Diese wurden aber nicht manuell entwickelt, sondern ein Trainingsprozess hat die entsprechenden Filtergewichte bestimmt. Die Faltungsschichten können lokale Merkmale extrahieren, da sie die Empfangsfelder der verdeckten Schichten auf den lokalen Bereich einschränken. A CNN consists of one or more convolutional layers, often with a sub-sampling layer followed by one or more fully connected layers as in a conventional neural network. The design of a CNN is based on the visual cortex in the brain. The visual cortex contains many cells responsible for detecting light in small overlapping subregions of the visual field. These are called receptor fields. The cells act as local filters for the input area, while more complex cells have larger receptor fields. The folding layer in a CNN performs the same function as the cells in the visual cortex. Each element of a layer receives inputs from different elements that are in close proximity to the previous layer and thus are quasi-local receptor fields. With local receptor fields, elementary traits such as edges, endpoints, corners, etc. can be extracted, which are then combined by means of higher layers. In the conventional pattern / image recognition model, a manually developed feature extraction tool collects relevant information from the input and removes irrelevant components. The extraction tool is followed by a trainable classifier, a conventional neural network, which classifies feature vectors into classes. In a CNN, on the other hand, folding layers assume the function of the feature extraction tool. These were not developed manually, but a training process has determined the appropriate filter weights. The convolution layers can extract local features because they restrict the receive fields of the hidden layers to the local area.
Die in dieser Erfindung verwendete CNN Struktur besteht aus 27 Schichten, wobei die erste Schicht das eingegebene Bild und die letzte Schicht die Klassifizierung und ein Vertrauenswert darstellen. In den Schichten dazwischen werden bestimmte Filtermethoden auf verschiedene Pixeleinstellungen angewandt um so viel Informationen aus den Bildern zu ziehen wie möglich. Bei einigen Filtern werden bestimmte Mittelwerte oder Maximalwerte extrahiert. Über die vorletzte Schicht wird das Model generalisiert. Um ein CNN Netzwerk für die Erkennung und Bewertung von Hautläsionen verwenden zu können, muss man das CNN Netzwerk darauf trainieren. CNN Netzwerke funktionieren am besten mit großen Datensätzen. Dazu verwendet man einen sehr gut trainierten Datensatz (über 1 ,2 Mio. Bilder) mit ausgezeichneter Performance hinsichtlich allgemeiner Bilderkennung und passt diesen an die neue Aufgabenstellung zur Erkennung von Hautläsionen an. Dieses Verfahren wird als„transfer learning" bezeichnet. Dazu wird das vorhandene Modell mit angepassten Gewichtungswerten initialisiert, sodass es am Ende dazu in der Lage ist eine Läsion klassifizieren zu können. Damit diese Methode zuverlässig funktioniert, wurden für das spezifische Training des der Erfindung zugrunde liegenden Modells über 25.000 dermatoskopische Bilder von Hautläsionen verwendet. Diese Aufnahmen wurden entweder durch Histologie oder durch Verlaufskontrolle ohne Veränderung als bösartig (malignant) oder gutartig (benign) diagnostiziert. The CNN structure used in this invention consists of 27 layers, the first layer representing the input image and the last layer the classification and a confidence value. In the layers in between, certain filter methods are applied to different pixel settings to extract as much information from the images as possible. Some filters extract certain averages or maximums. The model is generalized over the penultimate layer. In order to use a CNN network for the detection and evaluation of skin lesions, one must train the CNN network on it. CNN networks work best with large datasets. For this purpose, a very well-trained data set (over 1.2 million images) with excellent performance with regard to general image recognition is used and adapts to the new task for the detection of skin lesions. This method is referred to as "transfer learning." For this purpose, the existing model is initialized with adjusted weighting values, so that it is finally able to classify a lesion.To ensure that this method works reliably, the specific training of the invention was used Over 25,000 dermatoscopic images of skin lesions were used, which were diagnosed as either malignant or benign by histology or by follow-up without change.
Diese gemäß S2a und S2b erstellten Bildausschnitte werden nun vom CNN-Auswertemodul übergeben (S3) und hinsichtlich ihrer Malignität ausgewertet (S4a). Dabei werden die Bildausschnitte jeweils mehrmals in das CNN-Auswertemodul in unterschiedlichen Ausrichtungen eingegeben, d.h. in unterschiedlichen Winkeln und Drehungen. These image sections produced according to S2a and S2b are now transferred by the CNN evaluation module (S3) and evaluated with regard to their malignancy (S4a). The image sections are in each case entered several times into the CNN evaluation module in different orientations, i. in different angles and rotations.
Diese Teilergebnisse werden anschließend zu einem Endergebnis verrechnet (S4b). These partial results are then calculated to a final result (S4b).
Das Endergebnis wird anschließend in Form eines Gewichtungswertes für die betroffene Läsion auf der Ausgabeeinheit für den Anwender angezeigt. The final result is then displayed in the form of a weight value for the affected lesion on the output unit for the user.
Im Rahmen der Auswertung gemäß S4a und S4b ist es dabei unwesentlich, in welchem Vergrößerungsfaktor die mikroskopischen Aufnahmen erstellt wurden. Es können beispielsweise dermatoskopische Aufnahmen mit 20-facher optischer Vergrößerung genauso ausgewertet werden wie Aufnahmen mit 70-facher Vergrößerung. In the context of the evaluation according to S4a and S4b, it is irrelevant in which magnification factor the microscopic images were taken. For example, dermatoscopic images with 20x optical magnification can be evaluated in the same way as images with 70x magnification.
Nachdem eine mikroskopische Aufnahme stets einem klinischen Bild zugeordnet ist, wird in einem ergänzenden Verfahrensschritt (siehe Fig.2) aus dem klinischen Bild ein Teilausschnitt durch die Verarbeitungseinheit erstellt und abgespeichert. Die Extraktion erfolgt durch eine Bilderkennungsund Verarbeitungsfunktion (Software) die auf der Verarbeitungseinheit installiert ist. Wird dieser Detailausschnitt anschließend in voller Auflösung angezeigt, so können bereits anhand diesen klinischen Bildes die dermatoskopischen Strukturen der Läsion wie Farbe, Durchmesser, Struktur, Begrenzung gut erkannt werden. Anschließend wird dieser Datensatz zum Trainieren des CNN bereitgestellt, indem er nach dem dafür üblichen Vorgehen in das CNN eingepflegt wird (S6). After a microscopic image is always associated with a clinical image, a partial detail is created and stored by the processing unit in a supplementary method step (see FIG. 2) from the clinical image. The extraction is performed by an image recognition and processing function (software) installed on the processing unit. If this detail is subsequently displayed in full resolution, the dermoscopic structures of the lesion, such as color, diameter, structure, and limitation, can be easily recognized on the basis of this clinical image. Subsequently, this record is provided for training the CNN by being entered into the CNN according to the usual procedure (S6).
Insofern kann das erfindungsgemäße Verfahren auch ergänzend auf klinische Bilder angewendet werden, denn nach entsprechendem Trainingsaufwand kann anhand der klinischen Bilder einer Läsion bereits eine Risikoeinschätzung hinsichtlich der Malignität erfolgen. In this respect, the inventive method can also be used in addition to clinical images, because after appropriate training effort based on the clinical pictures of a lesion already made a risk assessment in terms of malignancy.
Um das Verfahren hinaus weitere Vorteile zu verleihen, ist es besonders wünschenswert, wenn neben der Malignität der Läsion auch ermittelt wird, ob es sich bei der Läsion um ein melanozytäre oder eine nicht- melanozytäre Läsion handelt. Nachdem die Abgrenzung zwischen melanozytären und nicht- melanozytären Läsionen für den Arzt aufwändig ist, bietet eine entsprechende Auswertung durch das erfindungsgemäße Verfahren einen deutlichen Mehrwert für die ärztliche Diagnosefindung. In order to confer further advantages to the method, it is particularly desirable if, in addition to the malignancy of the lesion, it is also determined whether the lesion is a melanocytic or a non-melanocytic lesion. Having the demarcation between melanocytic and non-melanocytic lesions is expensive for the doctor, a corresponding evaluation by the method according to the invention provides a clear added value for the medical diagnosis.
Unter dem Begriff der melanozytären Läsion versteht man in der Dermatologie ein Hautareal, das sich farblich von seiner Umgebung unterscheidet. Verantwortlich für die meist bräunliche Färbung sind die Pigmentzellen der Haut - die Melanozyten. Diese Läsion wird als Nävus bezeichnet. In dermatology, the term melanocytic lesion refers to a skin area that differs in color from its surroundings. Responsible for the mostly brownish color are the pigment cells of the skin - the melanocytes. This lesion is called a nevus.
Unter den nicht-melanozytären Läsionen werden durch verschiedene Faktoren bedingte Veränderungen der Oberhaut verstanden. Als Ursachen kommen besonders chronische Lichtschädigungen oder die Infektion mit bestimmten Viren in Frage. Gegenüber den melanozytären Läsionen werden sie in einem mehrstufigen Verfahren abgegrenzt. Häufige nicht-melanozytäre Läsionen sind zum Beispiel die aktinische Keratose oder Morbus Bowen, eine Vorstufe des Spinalioms sowie Basalzellkarzinome. Non-melanocytic lesions are understood to be due to various factors related to changes in the epidermis. The causes are especially chronic light damage or infection with certain viruses in question. Compared to the melanocytic lesions, they are delineated in a multi-step procedure. Common non-melanocytic lesions include, for example, actinic keratosis or Bowen's disease, a precursor to the spinal biome, and basal cell carcinomas.
Aktinische Keratosen können dunkel gefärbt sein, so dass der Arzt zunächst von eine melanozytären Läsion ausgehen könnte. Actinic keratoses may be dark in color, so the doctor may initially assume a melanocytic lesion.
Das Verfahren erfolgt analog zum dem Verfahren zur Ermittlung des Gewichtungswertes hinsichtlich der Malignität. Wie in Fig. 1 dargestellt, werden die mikroskopischen Bilder der Läsion für die Übergabe in das CNN entsprechend aufbereitet und an dieses übergeben. Das CNN ist zuvor anhand von Trainingsdatensätzen mittels Bilder von melanozytären und nicht- melanozytären Läsionen trainiert und kann diesbezüglich einen Gewichtungswert ausgeben. The method is analogous to the method for determining the weighting value in terms of malignancy. As shown in Figure 1, the microscopic images of the lesion are prepared for transfer to the CNN and transferred to it. The CNN has previously been trained on the basis of training data sets by means of images of melanocytic and non-melanocytic lesions and can issue a weighting value in this regard.
Die erfindungsgemäße Aufgabe wird durch eine computerisierte Vorrichtung gelöst, welches eine Empfangseinheit zum Empfangen von klinischen Bildern von Hautläsionen sowie die dazugehörigen mikroskopischen Aufnahmen der Hautläsion eines Menschen oder Tieres eingerichtet ist. Ferner verfügt die Vorrichtung über eine Verarbeitungseinheit die in der Weise konfiguriert ist, die empfangenen klinischen Bilder von Hautläsionen sowie der dazugehörigen mikroskopischen Aufnahmen der Hautläsionen zu verarbeiten, d.h. um die Bilder für die Übergabe in ein Convolutional Neural Network (CNN) vorzubereiten. Ferner verfügt die Vorrichtung über eine Bereitstellungseinheit, die in der Weise konfiguriert ist, ein Convolutional Neural Network (CNN) vorzuhalten. Nachdem das Betreiben eines Convolutional Neural Network (CNN) eine erhebliche Rechnerleistung bedarf, ist in der Regel die Bereitstellungseinheit räumlich von der Empfangs- und Verarbeitungseinheit getrennt und die verschiedenen Einheiten sind über eine Netzwerkleitung oder das Internet verbunden. Die Empfangs- und Verarbeitungseinheit kann zum Beispiel aus einem handelsüblichen Total Body Mapping System (z.B. FotoFinder bodystudio ATBM) bestehen, wie es in DE 20 2013 007 374U1 offenbart ist. Es wird dabei eine hochauflösende Digitalkamera (Auflösung 24 MegaPixel oder höher) zum Erstellen der klinischen Bilder der menschlichen Haut von einzelnen Körperregionen verwendet. Die Verarbeitungseinheit nutzt die hochauflösenden Bilder um daraus einzelne Läsionen aus dem klinischen Bild zu extrahieren und dies in ihrer vollen Auflösung für die weitere Verarbeitung bereitzustellen. Die Extraktion erfolgt durch eine Bilderkennungs- und Verarbeitungsfunktion (Software) die auf der Verarbeitungseinheit installiert ist. Wird dieser Detailausschnitt anschließend in voller Auflösung angezeigt, so können bereits anhand diesen klinischen Bildes die dermatoskopischen Strukturen der Läsion wie Farbe, Durchmesser, Struktur, Begrenzung gut erkannt werden. Da sich die Auflösung zukünftiger digitaler Kameras erfahrungsgemäß weiter erhöhen wird, wird sich das Ergebnis dieser Vorgehensweise immer mehr einer dermatoskopischen Aufnahme annähern bzw. dieser entsprechen. Die extrahierten Bilder werden als neuer Datensatz gespeichert und mit der dazugehörigen klinischen Aufnahme verknüpft. Diese beiden Datensätze können dann in das CNN zur weiteren Auswertung übergeben werden. Der Datensatz des klinischen Bildes kann zum Trainieren des CNN verwendet werden, wobei das Ergebnis der Auswertung des zugehörigen mikroskopischen Bildes in Form des Gewichtungswertes mitübergeben wird. Dieser Gewichtungswert definiert also die Einstufung des klinischen Bildes als benign oder malignant. The object according to the invention is achieved by a computerized device which is equipped with a receiving unit for receiving clinical images of skin lesions as well as the associated microscopic images of the skin lesion of a human or animal. Further, the device has a processing unit configured to process the received clinical images of skin lesions and the associated microscopic images of the skin lesions, ie to prepare the images for delivery to a Convolutional Neural Network (CNN). Further, the device has a provisioning unit configured to hold a Convolutional Neural Network (CNN). Since the operation of a Convolutional Neural Network (CNN) requires significant computing power, the provisioning unit is typically spatially separate from the receiving and processing unit and the various units are connected via a network line or the Internet. The receiving and processing unit can for example consist of a commercially available Total Body Mapping System (eg FotoFinder bodystudio ATBM), as disclosed in DE 20 2013 007 374U1. It uses a high-resolution digital camera (resolution 24 megapixels or higher) to create the clinical images of the human skin of individual body regions. The processing unit uses the high-resolution images to extract individual lesions from the clinical image and provide them in their full resolution for further processing. The extraction is performed by an image recognition and processing function (software) installed on the processing unit. If this detail is then displayed in full resolution, you can already use this clinical picture of the dermoscopic structures of the lesion such as color, diameter, structure, limitation are well recognized. Since experience shows that the resolution of future digital cameras will continue to increase, the result of this procedure will increasingly approximate or correspond to a dermatoscopic image. The extracted images are saved as a new record and linked to the associated clinical record. These two data records can then be transferred to the CNN for further evaluation. The data set of the clinical image can be used to train the CNN, the result of the evaluation of the associated microscopic image being transmitted in the form of the weighting value. This weighting value defines the classification of the clinical picture as benign or malignant.
In einer weiteren vorteilhaften Ausführungsform kann hierbei der histologische Befund für die Läsion mitübergeben werden. Wird eine Läsion vom Arzt als bösartig klassifiziert und operativ entfernt, wird in der Regel im Rahmen einer histologischen Untersuchung die Malignität der Läsion final geklärt. Das Ergebnis der histologischen Untersuchung kann mit dem Datensatz der mikroskopischen Aufnahme und damit auch mit der klinischen Aufnahme der Läsion verknüpft werden und erhöht somit die Validität des Datensatzes als Trainingsdatensatz für das CNN. In a further advantageous embodiment, the histological findings for the lesion can also be transferred. If a lesion is classified by the doctor as malignant and surgically removed, the malignancy of the lesion is usually clarified as part of a histological examination. The result of the histological examination can be linked to the record of the microscopic image and thus also to the clinical recording of the lesion, thus increasing the validity of the data set as a training dataset for the CNN.
Fundstellen a) Dermatologist-Ievel Classification of skin cancer with deep neural networks" Andre Esteva, Brett Kuprel (..) , Nature 542, 1 15-1 18 02 February 2017) Findings a) Dermatologist level of skin cancer with deep neural networks "Andre Esteva, Brett Kuprel (..), Nature 542, 1 15-1 18 02 February 2017)
b) Ciresan, D., Meier, U., Schmidhuber, J,:. Multi-column deep neural networks for image classication. In: Conference on Computer Vision and Pattern Recognition, IEEE (2012) 3642-3649; b) Ciresan, D., Meier, U., Schmidhuber, J.,:. Multi-column deep neural networks for image classification. In: Conference on Computer Vision and Pattern Recognition, IEEE (2012) 3642-3649;
c) Krizhevsky, A., Sutskever, I., Hinton, G.E.: Imagenet classication with deep convolutional neural networks. In: Advances in Neural Information Processing Systems. Volume 1. (2012) 4; c) Krizhevsky, A., Sutskever, I., Hinton, G.E .: Imagenet classication with deep convolutional neural networks. In: Advances in Neural Information Processing Systems. Volume 1. (2012) 4;
Claims
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102017010397.6A DE102017010397A1 (en) | 2017-11-09 | 2017-11-09 | Method for evaluating the skin pattern of a human in the context of skin cancer screening and device for its operation |
| DE102017010397.6 | 2017-11-09 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2019091509A1 true WO2019091509A1 (en) | 2019-05-16 |
Family
ID=65228284
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/DE2018/000325 Ceased WO2019091509A1 (en) | 2017-11-09 | 2018-11-09 | Method for analyzing the skin appearance of a human being in the context of skin cancer screening and apparatus for carrying out same |
Country Status (2)
| Country | Link |
|---|---|
| DE (1) | DE102017010397A1 (en) |
| WO (1) | WO2019091509A1 (en) |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110399916A (en) * | 2019-07-24 | 2019-11-01 | 淮阴工学院 | A Skin Cancer Image Classification Method Based on Image Enhancement and Inception Network |
| CN112017787A (en) * | 2020-08-17 | 2020-12-01 | 杭州依图医疗技术有限公司 | Medical information AI platform and computing equipment |
| CN112669959A (en) * | 2020-12-17 | 2021-04-16 | 中国医学科学院皮肤病医院(中国医学科学院皮肤病研究所) | Vitiligo state of illness automatic assessment method based on image |
| CN113057593A (en) * | 2021-03-18 | 2021-07-02 | 杭州睿胜软件有限公司 | Image recognition method, readable storage medium and electronic device |
| US12118723B1 (en) * | 2023-06-21 | 2024-10-15 | BelleTorus Corporation | Compute system with image based skin cancer detection mechanism and method of operation thereof |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CA3141644A1 (en) | 2019-07-01 | 2021-01-07 | Digital Diagnostics Inc. | Diagnosing skin conditions using machine-learned models |
| CN111444960A (en) * | 2020-03-26 | 2020-07-24 | 上海交通大学 | Dermatological image classification system based on multimodal data input |
| DE102023106118A1 (en) | 2023-03-13 | 2024-09-19 | Bayerische Motoren Werke Aktiengesellschaft | Device of a vehicle and method for detecting a skin disease of a vehicle occupant |
Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20050171439A1 (en) * | 2004-01-20 | 2005-08-04 | Michael Maschke | Method and device for examining the skin |
| CA2206273C (en) * | 1994-12-01 | 2006-04-04 | Artner, Norbert | Skin examination device |
| US7894651B2 (en) | 2007-03-02 | 2011-02-22 | Mela Sciences, Inc. | Quantitative analysis of skin characteristics |
| WO2011087807A2 (en) | 2009-12-22 | 2011-07-21 | Health Discovery Corporation | System and method for remote melanoma screening |
| US20120008838A1 (en) * | 2000-08-07 | 2012-01-12 | Health Discovery Corporation | System and method for remote melanoma screening |
| WO2013103475A2 (en) * | 2011-12-09 | 2013-07-11 | Massachusetts Institute Of Technology | Portable optical fiber probe-based spectroscopic scanner for rapid cancer diagnosis |
| DE202013007374U1 (en) | 2013-08-16 | 2013-11-05 | FotoFinder Systems GmbH | Image system for whole body photography and evaluation of the skin image of a human |
| US20140050416A1 (en) * | 2011-03-31 | 2014-02-20 | Optos Plc | Identifying and correcting anomalies in an optical image |
| US9767557B1 (en) * | 2016-06-23 | 2017-09-19 | Siemens Healthcare Gmbh | Method and system for vascular disease detection using recurrent neural networks |
| US20170287134A1 (en) * | 2016-03-31 | 2017-10-05 | International Business Machines Corporation | Annotation of skin image using learned feature |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9760990B2 (en) * | 2014-12-14 | 2017-09-12 | International Business Machines Corporation | Cloud-based infrastructure for feedback-driven training and image recognition |
| US9750450B2 (en) * | 2015-09-18 | 2017-09-05 | Htc Corporation | Method, electronic apparatus, and computer readable medium of constructing classifier for skin-infection detection |
-
2017
- 2017-11-09 DE DE102017010397.6A patent/DE102017010397A1/en not_active Withdrawn
-
2018
- 2018-11-09 WO PCT/DE2018/000325 patent/WO2019091509A1/en not_active Ceased
Patent Citations (10)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CA2206273C (en) * | 1994-12-01 | 2006-04-04 | Artner, Norbert | Skin examination device |
| US20120008838A1 (en) * | 2000-08-07 | 2012-01-12 | Health Discovery Corporation | System and method for remote melanoma screening |
| US20050171439A1 (en) * | 2004-01-20 | 2005-08-04 | Michael Maschke | Method and device for examining the skin |
| US7894651B2 (en) | 2007-03-02 | 2011-02-22 | Mela Sciences, Inc. | Quantitative analysis of skin characteristics |
| WO2011087807A2 (en) | 2009-12-22 | 2011-07-21 | Health Discovery Corporation | System and method for remote melanoma screening |
| US20140050416A1 (en) * | 2011-03-31 | 2014-02-20 | Optos Plc | Identifying and correcting anomalies in an optical image |
| WO2013103475A2 (en) * | 2011-12-09 | 2013-07-11 | Massachusetts Institute Of Technology | Portable optical fiber probe-based spectroscopic scanner for rapid cancer diagnosis |
| DE202013007374U1 (en) | 2013-08-16 | 2013-11-05 | FotoFinder Systems GmbH | Image system for whole body photography and evaluation of the skin image of a human |
| US20170287134A1 (en) * | 2016-03-31 | 2017-10-05 | International Business Machines Corporation | Annotation of skin image using learned feature |
| US9767557B1 (en) * | 2016-06-23 | 2017-09-19 | Siemens Healthcare Gmbh | Method and system for vascular disease detection using recurrent neural networks |
Non-Patent Citations (4)
| Title |
|---|
| ANDRE ESTEVA ET AL: "Dermatologist-level classification of skin cancer with deep neural networks", NATURE, vol. 542, no. 7639, 25 January 2017 (2017-01-25), London, pages 115 - 118, XP055560219, ISSN: 0028-0836, DOI: 10.1038/nature21056 * |
| ANDRE ESTEVA; BRETT KUPREL, NATURE, vol. 542, 2 February 2017 (2017-02-02), pages 115 - 118 |
| CIRESAN, D.; MEIER, U.; SCHMIDHUBER, J.: "Multi-column deep neural networks for image classication", CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, 2012, pages 3642 - 3649, XP032232509, DOI: doi:10.1109/CVPR.2012.6248110 |
| KRIZHEVSKY, A.; SUTSKEVER, I.; HINTON, G.E.: "Imagenet classication with deep convolutional neural networks", ADVANCES IN NEURAL , INFORMATION PROCESSING SYSTEMS, vol. 1, 2012, pages 4 |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN110399916A (en) * | 2019-07-24 | 2019-11-01 | 淮阴工学院 | A Skin Cancer Image Classification Method Based on Image Enhancement and Inception Network |
| CN112017787A (en) * | 2020-08-17 | 2020-12-01 | 杭州依图医疗技术有限公司 | Medical information AI platform and computing equipment |
| CN112669959A (en) * | 2020-12-17 | 2021-04-16 | 中国医学科学院皮肤病医院(中国医学科学院皮肤病研究所) | Vitiligo state of illness automatic assessment method based on image |
| CN112669959B (en) * | 2020-12-17 | 2024-03-29 | 中国医学科学院皮肤病医院(中国医学科学院皮肤病研究所) | Automatic evaluation method for vitiligo conditions based on images |
| CN113057593A (en) * | 2021-03-18 | 2021-07-02 | 杭州睿胜软件有限公司 | Image recognition method, readable storage medium and electronic device |
| US12118723B1 (en) * | 2023-06-21 | 2024-10-15 | BelleTorus Corporation | Compute system with image based skin cancer detection mechanism and method of operation thereof |
Also Published As
| Publication number | Publication date |
|---|---|
| DE102017010397A1 (en) | 2019-05-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| WO2019091509A1 (en) | Method for analyzing the skin appearance of a human being in the context of skin cancer screening and apparatus for carrying out same | |
| DE69630935T2 (en) | Image processing method and apparatus for automatically detecting areas of a predetermined type of cancer in an intensity image | |
| DE60212917T2 (en) | Device for calculating an index of local blood flows | |
| DE10321722A1 (en) | Computer-aided diagnosis of multiple energy images | |
| DE102011013505A1 (en) | Method and system for the automatic detection and classification of coronary stenoses in cardiac CT volumes | |
| DE102023203884A1 (en) | Medical image diagnostic aid device and method for generating and visualizing aid information based on distributions of signal intensities in medical images | |
| DE102022112136A1 (en) | MEDICAL IMAGE ANALYZER, METHOD AND MEDICAL IMAGE, VISUALIZATION DEVICE AND METHOD | |
| DE102009027448A1 (en) | Knowledge-based segmentation of weakening regions of the head | |
| DE102004061435A1 (en) | Method and device for registering lung image data | |
| WO2020173516A1 (en) | Method for evaluating skin lesions using artificial intelligence | |
| EP3928680B1 (en) | Endoscopic imaging method, endoscope imaging system, and software program product | |
| DE10109586A1 (en) | Processing of digital X-ray images obtained using medical fluoroscopy in which a single high dose rate exposure is made in order to accurately identify main objects in low dose rate exposures using a pattern-matching algorithm | |
| DE102009032442B4 (en) | Method and device for postprocessing measured values recorded by means of an imaging system | |
| DE202023103114U1 (en) | An IoT-enabled brain tumor detection system utilizing a capsule network and an attention mechanism | |
| DE102010028382A1 (en) | Method for processing tomographic image data from X-ray computed tomography investigation of liver for recognition of liver tumor, involves performing iterative classification, and calculating image mask from last probability image | |
| DE102021107075A1 (en) | Method, system and software program product for creating training data for endoscopic applications | |
| DE202023101413U1 (en) | A system for diagnosing hypertrophic cardiomyopathy using deep learning techniques | |
| DE102005048524A1 (en) | Anatomical object e.g. lungs, recognizing method for detecting lung cancer, involves selecting number of potential candidate objects from image data and classifying objects to produce anatomical objects with reduced wrong positive rate | |
| DE102021204020B3 (en) | Method for transmitting a plurality of medical images | |
| EP3155588B1 (en) | Whole-body image recording and image processing system and method for operating same | |
| DE19726226C2 (en) | Process for the automated recognition of structures in sections through biological cells or biological tissue | |
| DE102014014814A1 (en) | Method for the detection and classification of AMD based on at least two modalities of the respective eye | |
| DE102005022156A1 (en) | Method and device for ranking pixels in medical imaging | |
| DE102023118246B4 (en) | Method for analyzing a quasi-periodic biological signal | |
| DE202022106114U1 (en) | System based on deep learning to detect Alzheimer's disease |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18839667 Country of ref document: EP Kind code of ref document: A1 |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 18839667 Country of ref document: EP Kind code of ref document: A1 |