DE102017124600A1 - Semantic segmentation of an object in an image - Google Patents
Semantic segmentation of an object in an image Download PDFInfo
- Publication number
- DE102017124600A1 DE102017124600A1 DE102017124600.2A DE102017124600A DE102017124600A1 DE 102017124600 A1 DE102017124600 A1 DE 102017124600A1 DE 102017124600 A DE102017124600 A DE 102017124600A DE 102017124600 A1 DE102017124600 A1 DE 102017124600A1
- Authority
- DE
- Germany
- Prior art keywords
- neural
- convolution network
- predefined
- high priority
- objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Die vorliegende Erfindung betrifft ein Verfahren für die semantische Segmentierung eines Objekts (5, 8) in einem Bild mit den folgenden Verfahrensschritten:- aufeinanderfolgendes Erfassen von Einzelbildern (6, 7, 11),- Eingeben eines ersten Einzelbilds (6) der aufeinanderfolgend erfassten Einzelbilder (6, 7, 11) in Echtzeit in ein neuronales Faltungsnetz,- Untersuchen durch das neuronale Faltungsnetz, ob im ersten Einzelbild (6) ein Objekt (5, 8) erkannt werden kann,- semantisches Klassifizieren der erkannten Objekte (5, 8) durch das neuronale Faltungsnetz durch Zuordnen jedes erkannten Objekts (5, 8) zu einer von einer Liste vordefinierter Objektklassen,- Bereitstellen einer Lookup-Tabelle mit einer Prioritätsliste, die eine jeweilige Prioritätsstufe für jede der vordefinierten Objektklassen aufweist,- Bestimmen einer jeweiligen Prioritätsstufe der erkannten Objekte (5, 8) durch Vergleich mit der Lookup-Tabelle,- Bestimmen von einem oder mehr Objekt(en) (5), die eine vordefinierte Prioritätsstufe haben,- Bestimmen eines Bereichs hoher Priorität (9) des Einzelbilds (6), der sich auf das oder ein Objekt (5) mit der vordefinierten Prioritätsstufe bezieht,- Eingeben eines nächsten Einzelbilds (7) der aufeinanderfolgend erfassten Einzelbilder (5, 6) in Echtzeit in das neuronale Faltungsnetz,- Analysieren nur des Bereichs hoher Priorität (9) im nächsten Einzelbild (7) durch das neuronale Faltungsnetz. So wird eine effiziente CNN-Architekturkonstruktion, die für eine Fahrzeugkamera (3) mit einem großen Sichtfeld angewendet wird, wobei das große Sichtfeld genutzt wird.The present invention relates to a method for the semantic segmentation of an object (5, 8) in an image with the following method steps: successively acquiring individual images (6, 7, 11), inputting a first individual image (6) of the successively acquired individual images (6, 7, 11) in real time into a neuronal convolution network, - examining by the neural convolution network whether in the first frame (6) an object (5, 8) can be detected, - semantically classifying the detected objects (5, 8) by the neural convolution network by associating each recognized object (5, 8) with one of a list of predefined object classes, - providing a lookup table with a priority list having a respective priority level for each of the predefined object classes, - determining a respective priority level of the recognized one Objects (5, 8) by comparison with the lookup table, - Determining one or more object (s) (5), the one predefined e priority level, - determining a high priority area (9) of the frame (6) relating to the or an object (5) with the predefined priority level, - inputting a next frame (7) of the consecutively captured frames (5, 6) in real time into the neural convolution network, - analyzing only the high priority area (9) in the next frame (7) by the neural convolution network. Thus, an efficient CNN architecture construction is applied to a vehicle camera (3) having a large field of view using the large field of view.
Description
Die vorliegende Erfindung betrifft ein Verfahren für die semantische Segmentierung eines Objekts in einem Bild mit den folgenden Verfahrensschritten:
- - aufeinanderfolgendes Erfassen von Einzelbildern,
- - Eingeben eines ersten Einzelbilds der aufeinanderfolgend erfassten Einzelbilder in Echtzeit in ein neuronales Faltungsnetz und
- - Untersuchen durch das neuronale Faltungsnetz, ob im ersten Einzelbild ein Objekt für die semantische Segmentierung erkannt werden kann.
- successive acquisition of individual images,
- - Inputting a first frame of successively captured frames in real time in a neural folding network and
- - Investigate through the neural folding network, whether in the first frame, an object for the semantic segmentation can be detected.
Eines der elementarsten Probleme in der Computer Vision für Kraftfahrzeuge ist die semantische Segmentierung von Objekten in einem Bild. Der Segmentierungsansatz betrifft die Probleme beim Assoziieren jedes Pixels mit seiner entsprechenden Objektklasse. In jüngerer Zeit gab es, unterstützt durch eine Steigerung der Rechenleistung in Rechnerarchitekturen und der Verfügbarkeit großer annotierter Datensätze eine Welle von Forschung und Design auf dem Gebiet der neuronalen Faltungsnetze (Convolutional Neuronal Networks, CNN).One of the most fundamental problems in the computer vision for motor vehicles is the semantic segmentation of objects in an image. The segmentation approach addresses the problems of associating each pixel with its corresponding feature class. Recently, supported by an increase in computing power in computing architectures and the availability of large annotated data sets, there has been a wave of research and design in the field of Convolutional Neuronal Networks (CNN).
CNN sind hinsichtlich Klassifizierungs- und Kategorisierungsaufgaben hoch erfolgreich, ein Großteil der Forschung erfolgt aber an standardmäßigen photometrischen RGB-Bildern und konzentriert sich nicht auf eingebettete Geräte in Kraftfahrzeugen. Hardwaregeräte für Kraftfahrzeuge dürfen nur wenig Energie verbrauchen und haben daher eine niedrige Rechenleistung.CNNs are highly successful in classifying and categorizing tasks, but much of the research is done on standard RGB photometric images and does not focus on embedded devices in automobiles. Hardware devices for motor vehicles may consume only little energy and therefore have a low computing power.
Beim maschinellen Lernen ist ein neuronales Faltungsnetz eine Klasse tiefer künstlicher neuronaler feedforward-Netze, die erfolgreich auf die Analyse von visuellen Bildern angewendet wurden. CNN verwenden eine Variante von mehrlagigen Perzeptronen, die dafür ausgelegt sind, eine minimale Vorverarbeitung zu erfordern. Faltungsnetze wurden von biologischen Prozessen inspiriert, bei denen die Verbindungsmuster zwischen Neuronen von der Gestaltung des tierischen visuellen Cortex inspiriert sind. Einzelne kortikale Neuronen reagieren nur in einem beschränkten Bereich des als das rezeptive Feld bekannten Sichtfelds auf Reize. Die rezeptiven Felder verschiedener Neuronen überlappen einander teilweise, so dass sie das gesamte Sichtfeld abdecken. In machine learning, a neuronal convolution network is a class of deep artificial feedforward neuronal networks that have been successfully applied to the analysis of visual images. CNNs use a variant of multilayer perceptrons designed to require minimal preprocessing. Convolution networks have been inspired by biological processes in which the connection patterns between neurons are inspired by the design of the animal visual cortex. Individual cortical neurons only respond to stimuli in a limited area of the field of view known as the receptive field. The receptive fields of different neurons partially overlap each other so that they cover the entire field of view.
Verglichen mit anderen Bildklassifizierungsalgorithmen verwenden CNN relativ wenig Vorverarbeitung. Das bedeutet, dass das Netz die Filter erlernt, die in traditionellen Algorithmen von Hand entwickelt wurden. Diese Unabhängigkeit von früherem Wissen und menschlichen Bemühungen bei der Merkmalskonstruktion ist ein bedeutender Vorteil. CNN haben Anwendungen in der Bild- und Videoerkennung, in Empfehlungsdiensten und in der Computerlinguistik.Compared with other image classification algorithms, CNN use relatively little preprocessing. This means the net learns the filters that have been manually developed in traditional algorithms. This independence of prior knowledge and human effort in feature construction is a significant advantage. CNN have applications in image and video recognition, referral services and computational linguistics.
Diesbezüglich lehrt
Aus
Es ist eine Aufgabe der vorliegenden Erfindung, eine effiziente CNN-Architekturkonstruktion bereitzustellen, die für eine Fahrzeugkamera mit einem großen Sichtfeld angewendet wird, wobei das große Sichtfeld vorteilhaft genutzt wird.It is an object of the present invention to provide an efficient CNN architecture construction which is applied to a vehicle camera with a large field of view, taking advantage of the large field of view.
Diese Aufgabe wird durch den Gegenstand der unabhängigen Ansprüche gelöst. Bevorzugte Ausgestaltungen werden in den Unteransprüchen beschrieben.This object is solved by the subject matter of the independent claims. Preferred embodiments are described in the subclaims.
Die Erfindung sieht daher ein Verfahren für die semantische Segmentierung eines Objekts in einem Bild mit den folgenden Verfahrensschritten vor:
- - aufeinanderfolgendes Erfassen von Einzelbildern,
- - Eingeben eines ersten Einzelbilds der aufeinanderfolgend erfassten Einzelbilder in Echtzeit in ein neuronales Faltungsnetz,
- - Untersuchen durch das neuronale Faltungsnetz, ob im ersten Einzelbild ein Objekt erkannt werden kann,
- - semantisches Klassifizieren der erkannten Objekte durch das neuronale Faltungsnetz durch Zuordnen jedes erkannten Objekts zu einer von einer Liste vordefinierter Objektklassen,
- - Bereitstellen einer Lookup-Tabelle mit einer Prioritätsliste, die eine jeweilige Prioritätsstufe für jede der vordefinierten Objektklassen aufweist,
- - Bestimmen einer jeweiligen Prioritätsstufe der erkannten Objekte durch Vergleich mit der Lookup-Tabelle,
- - Bestimmen von einem oder mehr Objekt(en), die eine vordefinierte Prioritätsstufe haben,
- - Bestimmen eines neuen Bereichs hoher Priorität des Einzelbilds, der sich auf das oder ein Objekt mit der vordefinierten Prioritätsstufe bezieht,
- - Eingeben eines nächsten Einzelbilds der aufeinanderfolgend erfassten Einzelbilder in Echtzeit in das neuronale Faltungsnetz,
- - Analysieren nur des Bereichs hoher Priorität im nächsten Einzelbild durch das neuronale Faltungsnetz.
- successive acquisition of individual images,
- Inputting a first frame of the consecutively acquired individual images in real time into a neural folding network,
- Examine by the neural folding network whether an object can be detected in the first frame,
- semantically classifying the recognized objects by the neural convolution network by associating each recognized object with one of a list of predefined object classes,
- Providing a lookup table with a priority list having a respective priority level for each of the predefined object classes,
- Determining a respective priority level of the detected objects by comparison with the lookup table,
- Determining one or more object (s) having a predefined priority level,
- Determining a new high priority area of the frame that relates to the or an object having the predefined priority level,
- Inputting a next frame of the successively acquired individual images in real time into the neural folding network,
- - Analyzing only the high priority area in the next frame by the neural convolution network.
Grundidee der Erfindung ist es also, dass es möglich ist, dass anstelle einer regelmäßigen Verarbeitung ganzer Bilder für die semantische Segmentierung von Objekten in dem Bild nur ein Abschnitt des Bilds mit höherer Auflösung verarbeitet wird. Insbesondere wird anstelle dessen, dass immer das vollständige Bild analysiert wird, in einem ersten Einzelbild ein Bereich hoher Priorität des Bilds auf Basis der Prioritätsstufen der in dem Bild erkannten Objekte bestimmt. Dann wird in einem nächsten Einzelbild nur der Bereich hoher Priorität des Bilds verarbeitet, wodurch das Verfahren viel effektiver wird. Vorzugsweise werden die Prioritätsstufen der verschiedenen Objektklassen auf Basis einer Sicherheitsordnung definiert, z.B. Objekte, die zur Objektklasse „Person“ gehören, könnten wichtiger sein als Objekte, die zur Objektklasse „Straßenrand“ gehören.The basic idea of the invention is thus that it is possible that instead of processing whole images regularly for the semantic segmentation of objects in the image, only a portion of the image is processed with higher resolution. In particular, instead of always analyzing the entire image, in a first frame, a high priority area of the image is determined based on the priority levels of the objects detected in the image. Then, in a next frame, only the high priority area of the image is processed, making the process much more effective. Preferably, the priority levels of the various object classes are defined based on a security order, e.g. Objects belonging to the "Person" object class may be more important than objects belonging to the "Roadside" object class.
Vorzugsweise würde zu Beginn dieses Verfahrens der Bereich mit hoher Priorität durch das bzw. die Objekt(e) mit der höchsten Prioritätsstufe definiert, d.h. die vordefinierte Prioritätsstufe wäre die höchste Prioritätsstufe. Wenn diese Objekte vertrauenswürdig klassifiziert wurden, können Bereiche des Bilds mit Objekten, die niedrigere Prioritätsstufen haben, verarbeitet werden.Preferably, at the beginning of this process, the high priority area would be defined by the highest priority object (s), i. the predefined priority level would be the highest priority level. If these objects have been trusted, portions of the image may be processed with objects that have lower priority levels.
Der Schritt des Analysierens nur des Bereichs hoher Priorität im nächsten Einzelbild durch das neuronale Faltungsnetz kann, wie im Folgenden dargelegt, mit verschiedenen Methoden durchgeführt werden. Gemäß einer bevorzugten erfindungsgemäßen Ausgestaltung wird das Analysieren nur des Bereichs hoher Priorität im nächsten Einzelbild durch das neuronale Faltungsnetz durchgeführt durch
- - Untersuchen durch das neuronale Faltungsnetz, ob im Bereich hoher Priorität irgendein Objekt erkannt werden kann,
- - semantisches Klassifizieren der erkannten Objekte durch das neuronale Faltungsnetz durch Zuordnen jedes erkannten Objekts zu einer der Liste vordefinierter Objektklassen,
- - Bestimmen einer jeweiligen Priorität der erkannten Objekte durch Vergleich mit der Lookup-Tabelle,
- - Bestimmen des einen oder der mehr Objekte mit der vordefinierten Prioritätsstufe,
- - Bestimmen eines neuen Bereichs hoher Priorität des Einzelbilds, der sich auf das oder ein Objekt mit der vordefinierten Prioritätsstufe bezieht,
- - Eingeben eines nächsten Einzelbilds der aufeinanderfolgend erfassten Einzelbilder in Echtzeit in das neuronale Faltungsnetz und
- - Analysieren nur des neuen Bereichs hoher Priorität im nächsten Einzelbild durch das neuronale Faltungsnetz.
- - Examine by the neural convolution network whether any object can be detected in the high priority area,
- semantically classifying the recognized objects by the neural convolution network by associating each recognized object with one of the list of predefined object classes,
- Determining a respective priority of the detected objects by comparison with the lookup table,
- Determining the one or more objects having the predefined priority level,
- Determining a new high priority area of the frame that relates to the or an object having the predefined priority level,
- - Inputting a next frame of successively captured frames in real time in the neural folding network and
- - Analyzing only the new high priority area in the next frame by the neural convolution network.
Vorzugsweise wird der Schritt des Analysierens nur des Bereichs hoher Priorität im nächsten Einzelbild durch das neuronale Faltungsnetz durch
- - Untersuchen durch das neuronale Faltungsnetz, ob im Bereich hoher Priorität irgendein Objekt erkannt werden kann,
- - semantisches Klassifizieren der erkannten Objekte durch das neuronale Faltungsnetz durch Zuordnen jedes erkannten Objekts zu einer der Liste vordefinierter Objektklassen,
- - Bestimmen einer jeweiligen Priorität der erkannten Objekte durch Vergleich mit der Lookup-Tabelle,
- - Bestimmen des einen oder der mehr Objekte mit der vordefinierten Prioritätsstufe,
- - Bestimmen eines neuen Bereichs hoher Priorität des Einzelbilds, der sich auf das oder ein Objekt mit der vordefinierten Prioritätsstufe bezieht,
- - Eingeben eines nächsten Einzelbilds der aufeinanderfolgend erfassten Einzelbilder in Echtzeit in das neuronale Faltungsnetz und
- - Analysieren nur des neuen Bereichs hoher Priorität im nächsten Einzelbild durch das neuronale Faltungsnetz wenigstens einmal wiederholt.
- Examining by the neural folding network whether any object can be detected in the high priority area,
- semantically classifying the recognized objects by the neural convolution network by associating each recognized object with one of the list of predefined object classes,
- Determining a respective priority of the detected objects by comparison with the lookup table,
- Determining the one or more objects having the predefined priority level,
- Determining a new high priority area of the frame that relates to the or an object having the predefined priority level,
- - Inputting a next frame of successively captured frames in real time in the neural folding network and
- - Analyzing only the new high priority area in the next frame by the neural folding network at least once repeatedly.
Auf diese Weise kann ein Bereich hoher Priorität mit Objekten, die zu klassifizieren sind, in einem mehrere Schritte umfassenden Verfahren definiert werden. Gemäß einer weiteren bevorzugten erfindungsgemäßen Ausgestaltung kann eine derartige Klassifizierung auch direkt nach der ersten Definition des Bereichs hoher Priorität durchgeführt werden. Daher wird gemäß einer bevorzugten erfindungsgemäßen Ausgestaltung das Analysieren nur des Bereichs hoher Priorität im nächsten Einzelbild durch das neuronale Faltungsnetz durch semantisches Klassifizieren des Objekts durch Zuordnen des Objekts zu einer der Liste vordefinierter Objektklassen durchgeführt. In dieser Hinsicht wird vorzugsweise der folgende Schritt durchgeführt:
- - Akzeptieren der Objektklasse, der das Objekt beim Analysieren nur des Bereichs hoher Priorität im nächsten Einzelbild zugeordnet wurde, als eine vertrauenswürde Objektklasse. Wenn eine derartige vertrauenswürdige Klassifizierung von Objekten mit einer gewissen Prioritätsstufe erzielt wurde, werden vorzugsweise Bereiche mit Objekten mit der nächstniedrigeren Prioritätsklasse verarbeitet.
- Accept the object class to which the object was assigned when analyzing only the high priority area in the next frame as a trusted object class. If such a trusted classification of objects with a certain priority level has been achieved, areas with objects of the next lower priority class are preferably processed.
Im Allgemeinen kann das Eingeben eines nächsten Einzelbilds der aufeinanderfolgend erfassten Einzelbilder in Echtzeit in das neuronale Faltungsnetz durch Eingeben des vollständigen Einzelbilds durchgeführt werden. Gemäß einer bevorzugten erfindungsgemäßen Ausgestaltung wird aber das Eingeben eines nächsten Einzelbilds der aufeinanderfolgend erfassten Einzelbilder in Echtzeit in das neuronale Faltungsnetz durch Eingeben nur des Bereichs hoher Priorität des nächsten Einzelbilds in das neuronale Faltungsnetz durchgeführt.In general, inputting a next frame of the consecutively captured frames in real time into the neural convolution mesh can be performed by inputting the complete frame. However, in accordance with a preferred embodiment of the invention, inputting a next frame of successively acquired frames in real time to the neural convolution network is performed by inputting only the high priority area of the next frame into the neural convolution network.
Des Weiteren wird gemäß einer bevorzugten erfindungsgemäßen Ausgestaltung der Schritt des aufeinanderfolgenden Erfassens von Einzelbildern durch eine Kamera mit einem Sichtfeld von mehr als 150°durchgeführt, das jeweilige Einzelbilder ergibt, die einen Bildwinkel von mehr als 150° abdecken. Mehr v orzugsweise hat die Kamera ein Sichtfeld von mehr als 180°, das jeweilige Einzelbilder ergibt, die einen Bildwinkel von mehr als 180° abdecken. Auf diese Weise kann ein gr oßes Sichtfeld überwacht werden, während die reine Menge von Pixeln der durch eine derartige Kamera erfassten Bilder die Verarbeitungsgeschwindigkeit nicht merklich verlangsamt, da nicht für alle Einzelbilder die vollständigen Bilder verarbeitet werden müssen.Furthermore, according to a preferred embodiment of the invention, the step of successively capturing individual images is performed by a camera with a field of view of more than 150 °, which results in respective individual images covering an image angle of more than 150 °. More preferably, the camera has a field of view of more than 180 °, which gives respective frames that cover an angle of view of more than 180 °. In this way, a large field of view can be monitored, while the mere amount of pixels of the images captured by such a camera does not appreciably slow down the processing speed, since the complete images do not have to be processed for all individual images.
Auch betrifft die Erfindung die Verwendung eines Verfahrens, wie oben beschrieben, in einem Kraftfahrzeug.The invention also relates to the use of a method as described above in a motor vehicle.
Des Weiteren betrifft die Erfindung eine Sensoranordnung für ein Kraftfahrzeug, die zum Durchführen eines Verfahrens, wie oben beschrieben, konfiguriert ist.Furthermore, the invention relates to a sensor arrangement for a motor vehicle, which is configured to carry out a method as described above.
Auch betrifft die Erfindung einen nichtflüchtigen computerlesbaren Datenträger, der darauf gespeicherte Anweisungen aufweist, die bei Ausführung in einem Prozessor eine Sensoranordnung eines Kraftfahrzeugs zum Durchführen eines Verfahrens, wie oben beschrieben, veranlassen.Also, the invention relates to a non-transitory computer-readable medium having instructions stored thereon that when executed in a processor cause a sensor assembly of a motor vehicle to perform a method as described above.
Nachfolgend werden diese und andere erfindungsgemäße Aspekte unter Bezugnahme auf die im Folgenden beschriebenen Ausgestaltungen ersichtlich und näher erläutert. Die dargestellten Merkmale können sowohl jeweils einzeln als auch in Kombination einen Aspekt der Erfindung darstellen. Merkmale verschiedener Ausführungsbeispiele sind übertragbar von einem Ausführungsbeispiel auf ein anderes.Hereinafter, these and other aspects of the invention will be apparent from and elucidated with reference to the embodiments described below. The illustrated features may represent an aspect of the invention both individually and in combination. Features of various embodiments are transmittable from one embodiment to another.
In den Zeichnungen zeigt:
-
1 eine schematische Ansicht eines Fahrzeugs mit einer Sensoranordnung gemäß einer bevorzugten erfindungsgemäßen Ausgestaltung, -
2a, b schematische Ansichten der Verarbeitung von Einzelbildern gemäß einer bevorzugten erfindungsgemäßen Ausgestaltung und -
3a - d schematische Ansichten eines weiteren Aspekts der Verarbeitung von Einzelbildern gemäß einer bevorzugten erfindungsgemäßen Ausgestaltung.
-
1 a schematic view of a vehicle with a sensor arrangement according to a preferred embodiment of the invention, -
2a, b schematic views of the processing of individual images according to a preferred embodiment of the invention and -
3a d schematic views of another aspect of the processing of individual images according to a preferred embodiment of the invention.
Die
Das von der Sensoranordnung
Die Kamera
Im neuronalen Faltungsnetz wird untersucht, ob im ersten Einzelbild
Gemäß der hier beschriebenen bevorzugten Ausgestaltung können diese Objektklassen „Person“, „Auto“, „Wand“, „Baum“, ... sein. Eine derartige semantische Klassifizierung von Objekten durch ein neuronales Faltungsnetz ist dem Fachmann gut bekannt und bedarf hier keiner weiteren Erklärung.According to the preferred embodiment described herein, these object classes may be "person", "car", "wall", "tree", ... Such a semantic classification of objects by a neural folding network is well known to those skilled in the art and needs no further explanation here.
Anders als bei herkömmlichen Verfahren ist aber gemäß der bevorzugten erfindungsgemäßen Ausgestaltung eine Lookup-Tabelle mit einer jeweiligen Prioritätsliste für jede der vordefinierten Objektklassen vorgesehen. Im vorliegenden Fall sieht diese Prioritätsliste wie folgt aus:
Diese Prioritätsliste kann weiter Objektklassen haben, die auf jeweilige Prioritäten bezogen sind. Für jedes Objekt, das im ersten Einzelbild
In der
Dann wird ein nächstes Einzelbild
Gemäß einer bevorzugten erfindungsgemäßen Ausführungsform kann ein Bereich hoher Priorität mit Objekten, die klassifiziert werden sollten, auch in einem mehrere Schritte umfassenden Prozess definiert werden, wie im Folgenden mit Bezug auf die
In der
Diese Analyse mit höherer Auflösung ermöglicht es, deutlich zwischen den zwei Objekten
Dann wird in einem weiteren Einzelbild
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 11
- Kraftfahrzeugmotor vehicle
- 22
- Sensoranordnungsensor arrangement
- 33
- Kameracamera
- 44
- Auswertungseinheitevaluation unit
- 55
- Personenpeople
- 66
- erstes Einzelbildfirst single picture
- 77
- nächstes Einzelbildnext frame
- 88th
- Wandwall
- 99
- Bereich hoher PrioritätHigh priority area
- 1010
- neuer Bereich hoher Prioritätnew high priority area
- 1111
- weiterer nächster Bildbereichanother next picture area
ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturCited patent literature
- US 2017/0200063 A1 [0006]US 2017/0200063 A1 [0006]
- US 2017/0099200 A1 [0007]US 2017/0099200 A1 [0007]
- US 9704054 B1 [0008]US 9704054 B1 [0008]
Claims (10)
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102017124600.2A DE102017124600A1 (en) | 2017-10-20 | 2017-10-20 | Semantic segmentation of an object in an image |
| PCT/EP2018/078192 WO2019076867A1 (en) | 2017-10-20 | 2018-10-16 | Semantic segmentation of an object in an image |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102017124600.2A DE102017124600A1 (en) | 2017-10-20 | 2017-10-20 | Semantic segmentation of an object in an image |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102017124600A1 true DE102017124600A1 (en) | 2019-04-25 |
Family
ID=63896158
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102017124600.2A Pending DE102017124600A1 (en) | 2017-10-20 | 2017-10-20 | Semantic segmentation of an object in an image |
Country Status (2)
| Country | Link |
|---|---|
| DE (1) | DE102017124600A1 (en) |
| WO (1) | WO2019076867A1 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102021003439A1 (en) | 2021-07-02 | 2021-08-19 | Daimler Ag | Method for drawing attention to at least one occupant in a vehicle |
| DE102021004931A1 (en) | 2021-10-01 | 2021-12-09 | Daimler Ag | Method for processing environmental data in a vehicle |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20220138810A (en) * | 2021-04-06 | 2022-10-13 | 캐논 가부시끼가이샤 | Image processing apparatus and method for controlling the same |
| CN113392837B (en) * | 2021-07-09 | 2024-11-08 | 超级视线科技有限公司 | A license plate recognition method and device based on deep learning |
Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20010048753A1 (en) * | 1998-04-02 | 2001-12-06 | Ming-Chieh Lee | Semantic video object segmentation and tracking |
| US6697502B2 (en) * | 2000-12-14 | 2004-02-24 | Eastman Kodak Company | Image processing method for detecting human figures in a digital image |
| US20170099200A1 (en) | 2015-10-06 | 2017-04-06 | Evolv Technologies, Inc. | Platform for Gathering Real-Time Analysis |
| US9704054B1 (en) | 2015-09-30 | 2017-07-11 | Amazon Technologies, Inc. | Cluster-trained machine learning for image processing |
| US20170200063A1 (en) | 2016-01-13 | 2017-07-13 | Ford Global Technologies, Llc | Low- and high-fidelity classifiers applied to road-scene images |
| DE112016002175T5 (en) * | 2015-05-14 | 2018-01-25 | Google, Inc. | Entity-based temporal segmentation of video streams |
-
2017
- 2017-10-20 DE DE102017124600.2A patent/DE102017124600A1/en active Pending
-
2018
- 2018-10-16 WO PCT/EP2018/078192 patent/WO2019076867A1/en not_active Ceased
Patent Citations (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20010048753A1 (en) * | 1998-04-02 | 2001-12-06 | Ming-Chieh Lee | Semantic video object segmentation and tracking |
| US6697502B2 (en) * | 2000-12-14 | 2004-02-24 | Eastman Kodak Company | Image processing method for detecting human figures in a digital image |
| DE112016002175T5 (en) * | 2015-05-14 | 2018-01-25 | Google, Inc. | Entity-based temporal segmentation of video streams |
| US9704054B1 (en) | 2015-09-30 | 2017-07-11 | Amazon Technologies, Inc. | Cluster-trained machine learning for image processing |
| US20170099200A1 (en) | 2015-10-06 | 2017-04-06 | Evolv Technologies, Inc. | Platform for Gathering Real-Time Analysis |
| US20170200063A1 (en) | 2016-01-13 | 2017-07-13 | Ford Global Technologies, Llc | Low- and high-fidelity classifiers applied to road-scene images |
Non-Patent Citations (5)
| Title |
|---|
| David Dohan, Brian Matejek, Thomas Funkhouser: Learning Hierarchical Semantic Segmentations of LIDAR Data. In: International Conference on 3D Vision, 19-22 Oct. 2015, 273-281. * |
| Eduardo Romera et al.: Efficient ConvNet for real-time semantic segmentation. In: IEEE Intelligent Vehicles Symposium (IV), 11-14 June 2017, 1 - 6. * |
| MATTHEW ALASTAIR JOHNSON: Semantic Segmentation and Image Search. In: Dissertation University of Cambridge, April 2008, 1 - 161. * |
| Mennatullah Siam, Sara Elkerdawy, Martin Jagersand, Senthil Yogamani: Deep Semantic Segmentation for Automated Driving _ Taxonomy, Roadmap and Challenges. In: Cornell University Library, Submitted on 8 Jul 2017 (v1) and last revised 3 Aug 2017 (this version, v2), 1 - 8. https://arxiv.org/abs/1707.02432 * |
| Michael Treml et al.: Speeding up Semantic Segmentation for Autonomous Driving. In: 29th Conference on Neural Information Processing Systems (NIPS 2016), Barcelona, 2016, 1 - 7. * |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| DE102021003439A1 (en) | 2021-07-02 | 2021-08-19 | Daimler Ag | Method for drawing attention to at least one occupant in a vehicle |
| DE102021004931A1 (en) | 2021-10-01 | 2021-12-09 | Daimler Ag | Method for processing environmental data in a vehicle |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2019076867A1 (en) | 2019-04-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE102017220307B4 (en) | Device and method for recognizing traffic signs | |
| DE102018216413A1 (en) | Device and method for automatic image enhancement in vehicles | |
| DE102018128531A1 (en) | System and method for analyzing a three-dimensional environment represented by a point cloud through deep learning | |
| DE19955919C1 (en) | Object recognition method for pixel images provides reduced image from input image which is divided by filtering into at least 2 filtered images each used for providing set of classification images | |
| DE102019100575A1 (en) | METHOD AND SYSTEM FOR PRODUCING A AREA PICTURE USING LOW DEPTH DATA | |
| DE112017005651T5 (en) | Device for classifying data | |
| WO2019001649A1 (en) | KNOWLEDGE TRANSFER BETWEEN DIFFERENT DEEP-LEARNING ARCHITECTURES | |
| DE102017124600A1 (en) | Semantic segmentation of an object in an image | |
| DE102018100315B4 (en) | Generating input data for a convolutional neural network | |
| DE102021201124A1 (en) | TRAINING IMAGE CLASSIFIER NETWORKS | |
| WO2013037357A1 (en) | Automatic learning method for the automatic learning of forms of appearance of objects in images | |
| DE102023125422A1 (en) | Hybrid object detection method based on thermal images in combination with YOLO models and object tracking techniques | |
| DE102017215718A1 (en) | Method for evaluating an optical appearance in a vehicle environment and vehicle | |
| EP1180258B1 (en) | Pattern recognition by means of an examination of supplementary features after a partial processing | |
| DE102021200643B3 (en) | Method for environment recognition for semi-autonomous or autonomous driving functions of a motor vehicle using a neural network | |
| DE102022001208A1 (en) | Method for predicting trajectories of objects | |
| WO2018007619A1 (en) | Method and device for categorising a fracture surface of a component | |
| DE102019129029A1 (en) | OBJECT DETECTION SYSTEM AND METHOD | |
| DE102013226725A1 (en) | METHOD AND SYSTEM FOR DETECTING A HANDGESTE WHICH USE SELECTIVE LIGHTING | |
| EP3576013A1 (en) | Estimation of a path of a rail path | |
| DE102018114231A1 (en) | Method and system for capturing objects using at least one image of an area of interest (ROI) | |
| DE102018114229A1 (en) | Method for determining a movement state of an object depending on a movement mask and a generated boundary frame, driver assistance system and motor vehicle | |
| DE102018207923A1 (en) | Improved training of a classifier | |
| DE112021005555T5 (en) | MULTITASKING LEARNING VIA GRADUATION FOR EXTENSIVE HUMAN ANALYSIS | |
| DE102020206994A1 (en) | Classification of image data with adjustment of the level of detail |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R163 | Identified publications notified | ||
| R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |
|
| R012 | Request for examination validly filed |