DE102021111816A1 - Traceable image processing - Google Patents
Traceable image processing Download PDFInfo
- Publication number
- DE102021111816A1 DE102021111816A1 DE102021111816.6A DE102021111816A DE102021111816A1 DE 102021111816 A1 DE102021111816 A1 DE 102021111816A1 DE 102021111816 A DE102021111816 A DE 102021111816A DE 102021111816 A1 DE102021111816 A1 DE 102021111816A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- target image
- images
- processing
- source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/64—Protecting data integrity, e.g. using checksums, certificates or signatures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L9/00—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
- H04L9/32—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
- H04L9/3236—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using cryptographic hash functions
- H04L9/3239—Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using cryptographic hash functions involving non-keyed hash functions, e.g. modification detection codes [MDCs], MD5, SHA or RIPEMD
Landscapes
- Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Bioethics (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Image Processing (AREA)
Abstract
Verfahren (100) zur Verarbeitung eines oder mehrerer Quell-Bilder (1) zu mindestens einem Ziel-Bild (3) mit den Schritten:
• das mindestens eine Ziel-Bild (3) wird durch Anwenden einer vorgegebenen Bearbeitungsfunktion (2) auf das bzw. die Quell-Bilder (1) erzeugt (110);
• durch Anwenden einer vorgegebenen Hashfunktion (4) wird ein Hashwert (1#) eines jeden Quell-Bildes (1) gebildet (120), das zu dem Ziel-Bild (3) beigetragen hat;
• aus dem Hashwert (1#), bzw. den Hashwerten, des oder der Quell-Bilder (1) sowie einer Identifikation (2a) der Bearbeitungsfunktion (2) werden Validierungsinformationen (5) für die Herkunft des Ziel-Bildes (3) ermittelt (130);
• die Validierungsinformationen (5) werden in Assoziation mit dem Ziel-Bild (3) hinterlegt (140).
Zugehöriges Verfahren (200) zur Prüfung der Integrität eines Ziel-Bildes (3).
Method (100) for processing one or more source images (1) to form at least one target image (3), with the steps:
• the at least one target image (3) is generated (110) by applying a predetermined processing function (2) to the source image or images (1);
• by applying a predetermined hash function (4), a hash value (1#) of each source image (1) is formed (120) that contributed to the target image (3);
• Validation information (5) for the origin of the target image (3) is determined from the hash value (1#) or the hash values of the source image or images (1) and an identification (2a) of the processing function (2). (130);
• the validation information (5) is stored (140) in association with the target image (3).
Associated method (200) for checking the integrity of a target image (3).
Description
Die Erfindung betrifft die digitale Verarbeitung von Bildern insbesondere für sicherheitsrelevante Anwendungen, wie etwa für die Überwachung zu schützender Bereiche oder die Ansteuerung von Fahrzeugen.The invention relates to the digital processing of images, in particular for security-relevant applications, such as for monitoring areas to be protected or controlling vehicles.
Stand der TechnikState of the art
Bei der Überwachung zu schützender Bereiche sind mit einer oder mehreren Kameras aufgenommene Bilder die wichtigste Informationsquelle und gegebenenfalls auch das wichtigste Beweismittel. In der Ära der analogen Bildaufnahmen war es vergleichsweise schwierig und zeitaufwändig, die Aufnahmen unerkannt zu verfälschen. Der Fortschritt in der digitalen Bildverarbeitung hat das für solche Fälschungen nötige Niveau an Aufwand und Fähigkeiten deutlich verringert. So ist bereits Software am Markt, die es auch Ungeübten ermöglicht, störende Objekte innerhalb weniger Sekunden aus einem Bild herauszuretuschieren.When monitoring areas to be protected, images recorded with one or more cameras are the most important source of information and, if necessary, also the most important piece of evidence. In the era of analogue image recording, it was comparatively difficult and time-consuming to falsify the recordings without being detected. Advances in digital imaging have significantly reduced the level of effort and skill required for such counterfeiting. There is already software on the market that enables even inexperienced users to retouch disturbing objects from an image within a few seconds.
Auch in anderen Anwendungen, wie etwa in der Wissenschaft, wird die Frage dringender, wie es sich erschweren lässt, dass zur betrügerischen Erschleichung von Meriten angebliche Erfolge mit manipulierten oder frei erfundenen Bildern „untermauert“ werden.In other applications, too, such as in science, the question of how to make it more difficult for alleged successes to be "substantiated" with manipulated or fictitious images in order to fraudulently obtain merits is becoming more urgent.
Aus der
Aufgabe und Lösungtask and solution
Es ist die Aufgabe der Erfindung, die Verarbeitung von Bildern nachvollziehbar zu machen, so dass unerlaubte Manipulationen, wie etwa das Einschleusen oder Unterdrücken von Informationen, erschwert werden.It is the object of the invention to make the processing of images comprehensible so that unauthorized manipulations, such as the smuggling or suppression of information, are made more difficult.
Diese Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zur Verarbeitung eines oder mehrere Bilder gemäß Hauptanspruch sowie durch ein Verfahren zur Prüfung der Integrität eines Bildes gemäß Nebenanspruch. Weitere vorteilhafte Ausgestaltungen ergeben sich jeweils aus den darauf rückbezogenen Unteransprüchen.This object is achieved according to the invention by a method for processing one or more images according to the main claim and by a method for checking the integrity of an image according to the additional claim. Further advantageous refinements result from the subclaims which refer back thereto.
Offenbarung der ErfindungDisclosure of Invention
Im Rahmen der Erfindung wurde ein Verfahren zur Verarbeitung eines oder mehrerer Quell-Bilder zu mindestens einem Ziel-Bild entwickelt.As part of the invention, a method for processing one or more source images to form at least one target image was developed.
Dieses Ziel-Bild wird durch Anwenden einer vorgegebenen Bearbeitungsfunktion auf das bzw. die Quell-Bilder erzeugt. Durch Anwenden einer vorgegebenen Hashfunktion wird ein Hashwert eines jeden Quell-Bildes gebildet, das zu dem Ziel-Bild beigetragen hat.This destination image is created by applying a predetermined editing function to the source image(s). By applying a predetermined hash function, each source image that contributed to the destination image is hashed.
Als Hashfunktion kann jede Funktion verwendet werden, die ein Quell-Bild auf einen Hashwert abbildet, der in der Regel um ein Vielfaches weniger Information enthält als das Quell-Bild selbst. Typische Hashwerte haben eine Länge der Größenordnung 64 Bytes, während die Quell-Bilder viele Megabyte groß sein können. Besonders vorteilhaft werden kryptographisch sichere Hashfunktionen verwendet. Diese Hashfunktionen zeichnen sich dadurch aus, dass es nur mit sehr hohem Aufwand möglich ist, zu einem vorgegebenen Quell-Bild ein abgewandeltes Bild zu finden, das von der Hashfunktion auf den gleichen Hashwert abgebildet wird.Any function that maps a source image to a hash value that usually contains many times less information than the source image itself can be used as a hash function. Typical hash values have a length of the order of 64 bytes, while the source images can be many megabytes in size. Cryptographically secure hash functions are used particularly advantageously. These hash functions are distinguished by the fact that it is only possible with a great deal of effort to find a modified image for a given source image, which image is mapped to the same hash value by the hash function.
Aus dem Hashwert, bzw. den Hashwerten, des oder des oder der Quell-Bilder sowie einer Identifikation der Bearbeitungsfunktion werden Validierungsinformationen für die Herkunft des Ziel-Bildes ermittelt. Diese Validierungsinformationen werden in Assoziation mit dem Ziel-Bild hinterlegt.Validation information for the origin of the target image is determined from the hash value or hash values of the source image or images and an identification of the processing function. This validation information is stored in association with the target image.
Auf diese Weise lässt sich ein vorgegebenes Bild anhand der Validierungsinformationen daraufhin überprüfen, ob es aus einem oder mehreren behaupteten Quell-Bildern, und/oder unter Anwendung einer oder mehrerer behaupteter Bearbeitungsfunktionen, erzeugt wurde. So können etwa Hashwerte der behaupteten Quell-Bilder mit Hashwerten in den Validierungsinformationen verglichen werden. Diese Quell-Bilder können dann etwa mit den behaupteten Bearbeitungsfunktionen verarbeitet werden, und es kann geprüft werden, ob das Ergebnis in Einklang mit dem vorgegebenen Bild ist.In this way, a given image can be checked against the validation information as to whether it was generated from one or more claimed source images and/or using one or more claimed editing functions. For example, hash values of the claimed source images can be compared with hash values in the validation information. These source images can then be processed with the claimed editing functions, for example, and it can be checked whether the result is consistent with the specified image.
Beispielsweise kann so festgestellt werden, dass ein vorgegebenes Bild nur unter Verwendung solcher Bearbeitungsfunktionen erzeugt wurde, die lediglich die Qualität und/oder Erkennbarkeit des Bildes verbessern, ohne jedoch den semantischen Bildinhalt zu verändern. Zu diesen Bearbeitungsfunktionen zählen beispielsweise eine Anpassung von Helligkeit und Kontrast, eine anderweitige Farbkorrektur, eine Beseitigung von durch Defokussierung oder Bewegung entstandener Unschärfe oder auch ein Entrauschen des Bildes. Eine Veränderung des semantischen Bildinhalts liegt hingegen insbesondere vor, wenn ein oder mehrere im Bild sichtbare Objekte entfernt, unkenntlich gemacht, gegen andere Objekte ausgetauscht und/oder so abgewandelt werden, dass sie den Anschein eines anderen Objekts vortäuschen.For example, it can be determined in this way that a specified image was only generated using processing functions that only improve the quality and/or recognisability of the image, but without changing the semantic image content. These editing functions include, for example, adjusting the brightness and contrast, other color corrections, eliminating blur caused by defocusing or movement, or removing noise from the image. A change in the semantic image content, on the other hand, occurs in particular if one or more objects visible in the image are removed, made unrecognizable, exchanged for other objects and/or modified in such a way that they simulate the appearance of a different object.
Es kann auch beispielsweise festgestellt werden, dass beim Zusammensetzen mehrerer Quell-Bilder zu einem Ziel-Bild einerseits keine vorgesehenen Quell-Bilder unterdrückt wurden und andererseits keine zusätzlichen Quell-Bilder eingeschleust wurden. Wenn beispielsweise Quell-Bilder über ein Netzwerk übertragen werden, um zu einem Ziel-Bild zusammengesetzt zu werden, könnte versucht werden, die Übertragung eines der Quell-Bilder zu stören oder zu verändern, und/oder ein Quell-Bild vollständig gegen ein anderes Bild auszutauschen.It can also be determined, for example, that when several source images are combined to form a target image, on the one hand none are provided n source images have been suppressed and on the other hand no additional source images have been smuggled in. For example, when source images are transmitted over a network to be assembled into a destination image, an attempt might be made to disrupt or alter the transmission of one of the source images, and/or a source image entirely for another image exchange.
Das Hinterlegen der Validierungsinformationen in Assoziation mit dem Ziel-Bild kann in jeder beliebigen Weise erfolgen, die es einem Angreifer erschwert, das Ziel-Bild in einer unerwünschten Weise zu verändern und die Validierungsinformationen mit dieser unerwünschten Veränderung in Einklang zu bringen.Storing the validation information in association with the target image can be done in any way that makes it difficult for an attacker to modify the target image in an undesired way and to align the validation information with this undesired modification.
Beispielsweise können die Validierungsinformationen mit dem Ziel-Bild fusioniert werden. Dies hat den Vorteil, dass die Validierungsinformationen gleich mit dem Ziel-Bild vorliegen und nicht noch aus einer externen Quelle beschafft werden müssen. Hierbei können die Validierungsinformationen in beliebiger Weise gegen Manipulation abgesichert sein.For example, the validation information can be merged with the target image. This has the advantage that the validation information is available with the target image and does not have to be obtained from an external source. The validation information can be secured against manipulation in any way.
Beispielsweise können die Validierungsinformationen unter Verwendung eines privaten Schlüssels eines Public-Key-Kryptosystems kryptographisch signiert sein. Es kann auch beispielsweise eine Keyed Hash-Funktion verwendet werden, deren Berechnung zusätzlich auf einem geheimen Schlüssel basiert. Alternativ oder auch in Kombination hierzu können beispielsweise die Validierungsinformationen und das Ziel-Bild durch Anwenden einer steganographischen Funktion auf ein neues Ziel-Bild abgebildet werden. Eine steganographische Funktion kodiert die Validierungsinformationen so in das neue Ziel-Bild hinein, dass die Veränderung gegenüber dem ursprünglichen Ziel-Bild zumindest aus Sicht eines menschlichen Betrachters unauffällig ist. Auf diese Weise wird ein möglicher Angreifer gar nicht erst darauf hingewiesen, dass das Ziel-Bild mit Validierungsinformationen abgesichert ist.For example, the validation information can be cryptographically signed using a private key of a public key cryptosystem. A keyed hash function can also be used, for example, whose calculation is also based on a secret key. Alternatively or in combination with this, for example the validation information and the target image can be mapped to a new target image by applying a steganographic function. A steganographic function encodes the validation information into the new target image in such a way that the change from the original target image is inconspicuous, at least from the perspective of a human viewer. In this way, a possible attacker is not even informed that the target image is secured with validation information.
Die Validierungsinformationen können aber auch beispielsweise getrennt vom Ziel-Bild an einer beliebigen Stelle hinterlegt werden, so dass es für einen Angreifer erschwert wird, sowohl das Ziel-Bild zu manipulieren als auch die Validierungsinformationen mit dieser Manipulation in Einklang zu bringen. Beispielsweise können die Validierungsinformationen
- • auf einem Datenträger hinterlegt werden, dessen physikalischer Schreibprozess irreversibel ist; und/oder
- • auf einem externen Server oder in einer Cloud hinterlegt werden; und/oder
- • in einer Blockchain hinterlegt werden.
- • are stored on a data carrier whose physical writing process is irreversible; and or
- • be stored on an external server or in a cloud; and or
- • stored in a blockchain.
Als Speichermedien, deren physikalischer Schreibprozess irreversibel ist, können beispielsweise optische Speichermedien verwendet werden, in denen Bits durch eine lokale thermische Degradation oder Zerstörung eine Materials im Speichermedium geschrieben werden. Ebenso können beispielsweise Speicherbausteine verwendet werden, in denen durch lokalen erhöhten Stromfluss eine lokale thermische Degradation oder Zerstörung einer elektrisch leitenden oder halbleitenden Verbindung bewirkt und so Bits geschrieben werden können.For example, optical storage media can be used as storage media whose physical writing process is irreversible, in which bits are written by local thermal degradation or destruction of a material in the storage medium. Likewise, for example, memory modules can be used in which local increased current flow causes local thermal degradation or destruction of an electrically conductive or semiconductive connection and bits can thus be written.
Das Hinterlegen der Validierungsinformationen auf einem externen Server oder in einer Cloud schafft für einen Angreifer die zusätzliche Hürde, nicht nur das Ziel-Bild verändern zu müssen, sondern auch die Sicherheitsbarrieren des externen Servers bzw. der Cloud überwinden zu müssen, um eine Gelegenheit zur Veränderung der Validierungsinformationen zu erhalten.Storing the validation information on an external server or in a cloud creates the additional hurdle for an attacker not only to have to change the target image, but also to overcome the security barriers of the external server or cloud in order to have an opportunity for change to get the validation information.
Einmal in einer Blockchain hinterlegte Validierungsinformationen sind im Nachhinein faktisch unveränderlich, da der Angreifer den Konsensmechanismus der verwendeten Blockchain mit einer Mehrheitsattacke bezwingen müsste. Im Vergleich zu irreversibel beschreibbaren Speichermedien hat eine Blockchain den Vorteil, dass die Speicherkapazität nicht von vornherein durch ein physikalisches Medium als endliche Ressource begrenzt ist.Validation information once stored in a blockchain is in fact unchangeable afterwards, since the attacker would have to defeat the consensus mechanism of the blockchain used with a majority attack. Compared to irreversibly writable storage media, a blockchain has the advantage that the storage capacity is not limited from the outset by a physical medium as a finite resource.
Wenn die Validierungsinformationen separat vom Ziel-Bild hinterlegt werden, können sie beispielsweise noch sicherer an das konkrete Ziel-Bild gebunden werden, indem sie in Assoziation mit einem Hashwert des Ziel-Bildes hinterlegt werden. Insbesondere bei Nutzung eines irreversibel beschreibbaren Speichermediums oder einer Blockchain ist dies erheblich preiswerter, als neben den Validierungsinformationen auch das komplette Ziel-Bild zu hinterlegen.If the validation information is stored separately from the target image, it can be tied to the specific target image even more securely, for example, by storing it in association with a hash value of the target image. Especially when using an irreversibly writable storage medium or a blockchain, this is considerably cheaper than storing the complete target image in addition to the validation information.
Diese Identifikation der Bearbeitungsfunktion kann insbesondere beispielsweise
- • für den Aufruf der Bearbeitungsfunktion verwendbare Angaben, wie etwa eine Kennung der Bearbeitungsfunktion in einer Programmierschnittstelle (Application Programming Interface, API) oder eine Einsprungadresse, unter der die Bearbeitungsfunktion in einer Programmbibliothek oder im Arbeitsspeicher erreichbar ist, und/oder
- • einen Namen der Bearbeitungsfunktion, und/oder
- • einen Hashwert von Programmcode der Bearbeitungsfunktion
- • Information that can be used to call the processing function, such as an identifier of the processing function in an application programming interface (API) or an entry point at which the processing function can be reached in a program library or in main memory, and/or
- • a name of the editing function, and/or
- • a hash value of program code of the processing function
Darüber hinaus kann die Identifikation beispielsweise auch Parameter beinhalten, mit denen die Bearbeitungsfunktion aufgerufen wurde. Dies bietet eine erhöhte Sicherheit dagegen, dass eine bei der Bildverarbeitung an sich erwünschte Bearbeitungsfunktion zum unerwünschten Verändern oder Unkenntlichmachen semantischer Information im Bild „missbraucht“ wird.In addition, the identification can, for example, also contain parameters with which the processing function was called up. This offers increased security against a processing function that is desired in image processing being “misused” to undesirably change or render unrecognizable semantic information in the image.
So können beispielsweise die erwähnten Funktionen zur Anpassung von Helligkeit, Kontrast und anderen Farbkorrekturen durch das Einstellen extremer Werte ihrer Parameter dazu veranlasst werden, das Quell-Bild zu einem Ziel-Bild zu verarbeiten, in dem praktisch die gesamte Bildinformation an einem oberen oder unteren Rand des verfügbaren Bereichs von Pixelwerten in die Sättigung gefahren wird. Im Ziel-Bild ist dann nur noch wenig bis nichts vom semantischen Gehalt des Quell-Bildes zu erkennen. In analoger Weise lässt sich beispielsweise auch unter Nutzung von Bearbeitungsfunktionen für das Entrauschen von Bildern die eigentlich interessierende Information aus den Bildern tilgen.For example, the functions mentioned for adjusting brightness, contrast and other color corrections can be caused by setting extreme values of their parameters to process the source image into a target image in which practically all of the image information is at a top or bottom edge of the available range of pixel values is driven into saturation. In the target image, little or nothing of the semantic content of the source image can then be recognized. In an analogous manner, for example, the information that is actually of interest can also be erased from the images by using processing functions for removing noise from images.
Auch eine Bearbeitungsfunktion, die einen bestimmten Ausschnitt des Quell-Bildes als Ziel-Bild ausgibt, könnte durch eine Änderung der Koordinaten dieses Ausschnitts verwendet werden, um ein semantisch anderes Ziel-Bild zu erzeugen. Beispielsweise kann an Stelle eines Ausschnitts, der ein erstes Objekt zeigt, ein Ausschnitt ausgewählt werden, der ein anderes Objekt oder gar nur einen Hintergrundbereich ohne Objekte zeigt. Das neue Ziel-Bild wäre dann aus dem gleichen Quell-Bild hervorgegangen und mit den gleichen Bearbeitungsfunktionen bearbeitet worden wie das vorherige Ziel-Bild, jedoch wäre es substanziell verändert. Daher ist es vorteilhaft, die Koordinaten des ausgewählten Bildausschnitts in die Identifikation der Bearbeitungsfunktion mit einzubeziehen.A processing function that outputs a specific section of the source image as the target image could also be used by changing the coordinates of this section in order to generate a semantically different target image. For example, instead of a detail that shows a first object, a detail that shows another object or even just a background area without objects can be selected. The new target image would then have been created from the same source image and processed with the same editing functions as the previous target image, but it would have been substantially changed. It is therefore advantageous to include the coordinates of the selected image section in the identification of the processing function.
Das Auswählen von Bildausschnitten ist beispielsweise in einer vorteilhaften Ausgestaltung des Verfahrens relevant, die Kapazitäten für die Weiterverarbeitung von Ziel-Bildern optimal nutzt.The selection of image sections is relevant, for example, in an advantageous embodiment of the method that optimally uses capacities for the further processing of target images.
In dieser Ausgestaltung wird ein von einer Überwachungskamera aufgenommenes Bild eines beobachteten Bereiches als Quell-Bild gewählt. Es werden mehrere Ziel-Bilder erzeugt, die verschiedene Ausschnitte des Quell-Bildes beinhalten. Diese Ziel-Bilder werden über ein Netzwerk an eine oder mehrere Verarbeitungsstationen übertragen und durch die eine oder mehreren Verarbeitungsstationen jeweils zu Verarbeitungsergebnissen weiterverarbeitet.In this embodiment, an image of an observed area recorded by a surveillance camera is selected as the source image. Several target images are generated that contain different sections of the source image. These target images are transmitted to one or more processing stations via a network and processed further by the one or more processing stations to produce processing results.
Beispielsweise können im Netzwerk mehrere Verarbeitungsstationen bereitgestellt werden, die verschiedene Ziel-Bilder parallel verarbeiten. So kann die kombinierte Kapazität dieser Verarbeitungsstationen ausgenutzt werden, um die Gesamtheit der aus dem Quell-Bild gewonnenen Arbeitsergebnisse möglichst schnell zu erhalten. Beispielsweise können Ausschnitte aus einem großen Quell-Bild effizienter in einem Mesh-Netzwerk, das Kameras und/oder andere Sensormodule enthält, verteilt und auf diesen Modulen verarbeitet werden. Die Kameras bzw. Sensormodule müssen dann nicht in der Lage sein, die geforderte Weiterverarbeitung für das gesamte große Quell-Bild bewältigen zu können. So hängt beispielsweise bei der semantischen Analyse von Bildern mit neuronalen Netzwerken und anderen Bildklassifikatoren der Bedarf an GPU-Speicher wesentlich von der Bildgröße ab. Gerade auf Sensormodulen und anderen IoT-Geräten wird die Hardwareausstattung häufig knapp dimensioniert, weil sich zum einen die Hardwarekosten mit der Anzahl der verwendeten Geräte multiplizieren und zum anderen diese Geräte häufig aus Batterien mit Energie versorgt werden.For example, several processing stations can be provided in the network, which process different target images in parallel. In this way, the combined capacity of these processing stations can be used to obtain the entirety of the work results obtained from the source image as quickly as possible. For example, sections of a large source image can be distributed more efficiently in a mesh network containing cameras and/or other sensor modules and processed on these modules. The cameras or sensor modules then do not have to be able to handle the required further processing for the entire large source image. For example, in the semantic analysis of images using neural networks and other image classifiers, the GPU memory requirement depends significantly on the image size. Especially on sensor modules and other IoT devices, the hardware equipment is often tightly dimensioned because on the one hand the hardware costs multiply with the number of devices used and on the other hand these devices are often supplied with energy from batteries.
Die Ziel-Bilder können auch beispielsweise in eine Cloud übertragen werden, wo die Kapazität für die Weiterverarbeitung automatisch skalieren kann. Beispielsweise können für die Erkennung von Objekten oder auch Gesichtern in Bildern Cloud-Dienste genutzt werden, die die Erkennung schlüsselfertig „as a service“ liefern. Wenn einem derartigen Cloud-Dienst eine große Zahl von Ziel-Bildern auf einmal vorgelegt wird, übernimmt es dieser Cloud-Dienst, die Kapazität für diese gleichzeitigen Anfragen bereitzustellen. In gleicher Weise kann auch verfahren werden, wenn die Weiterverarbeitung eigenständig in einer Cloud implementiert wird.The target images can also be transferred to a cloud, for example, where the capacity for further processing can be scaled automatically. For example, cloud services can be used to recognize objects or faces in images, which provide turnkey recognition “as a service”. When such a cloud service is presented with a large number of target images at once, that cloud service takes on the task of providing the capacity for these simultaneous requests. The same procedure can also be followed if further processing is implemented independently in a cloud.
Beispielsweise kann die Logik der Verarbeitungsstation in einem Software-Container implementiert sein. Eine zentrale Managementinstanz (wie etwa die bei Amazon AWS angebotene ereignisgesteuerte „Lambda-Funktion“) kann dann die Ziel-Bilder entgegennehmen, auf Instanzen der Software-Container verteilen sowie bei Bedarf die Anzahl dieser Instanzen hoch- oder herunterskalieren. Beispielsweise kann in einer virtualisierten Ausführungsumgebung für jedes einzelne Ziel-Bild eine neue Worker-Instanz des Software-Containers erzeugt werden, die nur dieses Ziel-Bild weiterverarbeitet und dann direkt wieder beendet wird. Es wird dann immer nur so viel Kapazität genutzt und bezahlt, wie tatsächlich benötigt wird. Somit kann beispielsweise optimal darauf reagiert werden, dass auch bei einer Überwachung des immer gleichen Bereichs der Bedarf an Weiterverarbeitung von Ziel-Bildern stark variieren kann. Wenn die Weiterverarbeitung beispielsweise darauf gerichtet ist, Personen in den Ziel-Bildern anhand ihrer Gesichter zu erkennen, dann hängt der Bedarf an Weiterverarbeitung von der Anzahl der Personen in dem Bereich ab. So ist beispielsweise die Passantenfrequenz auf einem überwachten Platz im öffentlichen Raum sehr stark variabel und zum Teil auch schwer vorhersehbar. Unerwartet schönes Wetter und höhere Temperaturen etwa können schlagartig viele Menschen auf einmal anlocken und einen großen Bedarf an Weiterverarbeitung hervorrufen, der dann bei Inkrafttreten der nächtlichen Ausgangssperre ebenso schlagartig wieder zusammenbricht. Auf Werksgeländen können beispielsweise Schichtwechsel oder die endgültige Fertigstellung einer größeren Maschine dafür sorgen, dass plötzlich wesentlich mehr Menschen unterwegs sind als zu anderen Zeiten.For example, the logic of the processing station can be implemented in a software container. A central management instance (such as the event-driven "Lambda function" offered by Amazon AWS) can then receive the target images, distribute them to instances of the software container and scale the number of these instances up or down if necessary. For example, in a virtualized execution environment, a new worker instance of the software container can be created for each individual target image, which only processes this target image further and is then terminated again directly. Only as much capacity is then used and paid for as is actually required. Thus, for example, it is possible to react optimally to the fact that the need for further processing of target images can vary greatly even when monitoring the same area over and over again. For example, if the further processing is aimed at recognizing people in the target images by their faces, then the need for further processing depends on the number of people in the area. For example, the frequency of pedestrians is on a monitored space in public space varies greatly and is sometimes difficult to predict. Unexpectedly nice weather and higher temperatures, for example, can suddenly attract many people at once and create a great need for further processing, which then collapses again just as suddenly when the night-time curfew comes into force. On factory premises, for example, shift changes or the final completion of a larger machine can mean that suddenly many more people are on the move than at other times.
Somit können in einer besonders vorteilhaften Ausgestaltung die Ziel-Bilder jeweils mindestens ein Gesicht beinhalten, so dass die eine oder mehreren Verarbeitungsstationen jeweils eine Identifikation mindestens eines Gesichts (bzw. der zugehörigen Person) als Verarbeitungsergebnis liefern.In a particularly advantageous embodiment, the target images can each contain at least one face, so that the one or more processing stations each supply an identification of at least one face (or the associated person) as the processing result.
Diese Weiterverarbeitung kann auch beispielsweise dahingehend Hand in Hand mit der vorherigen Verarbeitung eines Quell-Bildes zu mehreren Ziel-Bildern zusammenarbeiten, dass immer Ausschnitte ausgewählt werden, die genau ein Gesicht enthalten. Dann kann sich die Weiterverarbeitung voll auf dieses eine Gesicht konzentrieren und muss nicht zunächst ermitteln, wie viele unterschiedliche Gesichter das Bild enthält.This further processing can also, for example, work hand in hand with the previous processing of a source image to form a number of target images, such that sections that contain exactly one face are always selected. Then further processing can concentrate fully on this one face and does not first have to determine how many different faces the image contains.
In einer weiteren vorteilhaften Ausgestaltung werden die Ziel-Bilder nach dem Verarbeiten durch die eine oder mehreren Verarbeitungsstationen als Quell-Bilder verwendet, um daraus ein neues Ziel-Bild zu aggregieren. Wenn auch für dieses Ziel-Bild Validierungsinformationen erstellt werden, kann in Form dieses Ziel-Bildes beispielsweise die Entscheidungsgrundlage für das Ermitteln der gesammelten Verarbeitungsergebnisse sicher dokumentiert werden.In a further advantageous embodiment, the target images are used as source images after processing by the one or more processing stations, in order to aggregate a new target image from them. If validation information is also created for this target image, the decision-making basis for determining the collected processing results, for example, can be securely documented in the form of this target image.
In einer weiteren vorteilhaften Ausgestaltung werden mehrere von verschiedenen, von einem Fahrzeug mitgeführten, Kameras aufgenommene Bilder als Quell-Bilder gewählt. Es wird ein aus diesen Quell-Bildern zusammengesetztes Ziel-Bild erzeugt. Aus dem Ziel-Bild wird ein Verarbeitungsergebnis ausgewertet. Das Verarbeitungsergebnis wird zu einem Ansteuersignal verarbeitet. Mit diesem Ansteuersignal wird das Fahrzeug angesteuert.In a further advantageous embodiment, several images recorded by different cameras carried by a vehicle are selected as source images. A target image composed of these source images is generated. A processing result is evaluated from the target image. The processing result is processed into a drive signal. The vehicle is controlled with this control signal.
Auf diese Weise kann das Verarbeitungsergebnis beispielsweise ausgehend von einem einzigen Bild ermittelt werden, das Informationen aus dem gesamten Fahrzeugumfeld oder zumindest einem wesentlichen Teil hiervon enthält. So ist beispielsweise für die weitere Planung des Verhaltens des Fahrzeugs das komplette Verkehrsgeschehen wichtig, das sich im in Fahrtrichtung vor dem Fahrzeug befindet. Hingegen ist es weniger wichtig, von welcher der verschiedenen Kameras, die diesen Bereich beobachten, welcher Teil des Verkehrsgeschehens erfasst wurde.In this way, the processing result can be determined, for example, starting from a single image that contains information from the entire vehicle environment or at least a significant part thereof. For example, for the further planning of the behavior of the vehicle, the complete traffic situation that is in front of the vehicle in the direction of travel is important. On the other hand, it is less important which of the various cameras observing this area captured which part of the traffic situation.
In einer besonders vorteilhaften Ausgestaltung beinhaltet das Verarbeitungsergebnis eine Klassifikation eines oder mehrerer im Ziel-Bild enthaltener Objekte, und/oder eine semantische Segmentierung des Ziel-Bildes. Für diese Aufgaben ist es besonders sinnvoll, mit einem aus mehreren Quell-Bildern zusammengesetzten Ziel-Bild zu arbeiten. Insbesondere fallen dann beispielsweise Schwierigkeiten bei der Erkennung sowie Mehrfacherkennungen weg, die entstehen können, wenn
- • ein erster Teil des Objekts nur in einem ersten Quell-Bild und ein zweiter Teil des gleichen Objekts nur in einem zweiten Quell-Bild zu sehen ist; oder
- • das Objekt sich dort befindet, wo sich die in zwei Quell-Bildern erfassten Bereiche des Fahrzeugumfelds überlappen, so dass es in beiden Quell-Bildern zu sehen ist.
- • a first part of the object can only be seen in a first source image and a second part of the same object can only be seen in a second source image; or
- • the object is located where the areas of the vehicle's surroundings captured in two source images overlap, so that it can be seen in both source images.
Wie zuvor erläutert, ist der Mehrwert des erweiterten Verfahrens für die Verarbeitung von Quell-Bildern zu Ziel-Bildern, dass die Integrität dieser Ziel-Bilder zu einem späteren Zeitpunkt geprüft werden kann. Die Erfindung stellt daher auch ein Verfahren zur Prüfung der Integrität eines Ziel-Bildes bereit, das mit dem eingangs beschriebenen Verfahren erzeugt wurde.As previously explained, the added value of the extended method for processing source images into target images is that the integrity of these target images can be checked at a later point in time. The invention therefore also provides a method for checking the integrity of a target image that was generated using the method described in the introduction.
Im Rahmen dieses Verfahrens werden die in Assoziation mit dem Ziel-Bild hinterlegten Validierungsinformationen beschafft. Weiterhin werden ein oder mehrere Kandidaten-Quell-Bilder beschafft. Das sind diejenigen Quell-Bilder, aus denen das Ziel-Bild vorgeblich erstellt wurde. Die Information, um welche Bilder es sich hier im Einzelnen handelt, kann in beliebiger Form, die auch nicht besonders manipulationsgeschützt sein muss, in Assoziation mit dem Ziel-Bild hinterlegt sein. Es können aber auch beispielsweise alle Kandidaten-Quell-Bilder aus einem vorgegebenen Pool verwendet werden, wie etwa alle Quell-Bilder, die in einem bestimmten interessierenden Zeitraum aufgenommen wurden.As part of this process, the validation information stored in association with the target image is obtained. Furthermore, one or more candidate source images are obtained. These are the source images from which the target image was supposedly created. The information about which individual images are involved here can be stored in any form, which does not have to be particularly tamper-proof, in association with the target image. However, it is also possible, for example, to use all candidate source images from a predefined pool, such as all source images that were recorded in a specific period of interest.
Durch Anwenden einer vorgegebenen Hashfunktion wird ein Hashwert eines jeden Kandidaten-Quell-Bildes ermittelt. In Antwort darauf, dass alle diese Hashwerte mit hierzu korrespondierenden Hashwerten in den Validierungsinformationen übereinstimmen, wird festgestellt, dass das Ziel-Bild aus dem Kandidaten-Quell-Bild, bzw. aus den Kandidaten-Quell-Bildern, hervorgegangen ist. Hierbei kann insbesondere beispielsweise auch geprüft werden, ob es zu jedem Hashwert eines Bildes in den Validierungsinformationen auch ein Kandidaten-Quell-Bild mit hierzu passendem Hashwert gibt. Wenn dies der Fall ist, ist keines der Quell-Bilder, aus denen das Ziel-Bild ausweislich der Validierungsinformationen erzeugt wurde, unterdrückt worden.A hash value of each candidate source image is determined by applying a predetermined hash function. In response to the fact that all of these hash values match the corresponding hash values in the validation information, it is determined that the target image has emerged from the candidate source image or from the candidate source images. In particular, it can also be checked, for example, whether there is also a candidate source image with a matching hash value for each hash value of an image in the validation information. If this is the case, none of the source images from which the target image was generated according to the validation information has been suppressed.
In einer besonders vorteilhaften Ausgestaltung wird zusätzlich die gemäß der Identifikation in den Validierungsinformationen ermittelte Bearbeitungsfunktion auf das oder die Kandidaten-Quell-Bilder angewendet, so dass ein Prüf-Bild erhalten wird. In Antwort darauf, dass das Prüf-Bild in Einklang mit dem Ziel-Bild ist, wird festgestellt, dass das Ziel-Bild aus dem Kandidaten-Quell-Bild, bzw. aus den Kandidaten-Quell-Bildern, durch Anwendung der Bearbeitungsfunktion gemäß der Identifikation in den Validierungsinformationen hervorgegangen ist.In a particularly advantageous embodiment, the processing function determined according to the identification in the validation information is also applied to the candidate source image or images, so that a test image is obtained. In response to the test image being consistent with the target image, it is determined that the target image is derived from the candidate source image(s) by applying the editing function according to FIG Identification has emerged in the validation information.
Hierbei bedeutet die Formulierung „in Einklang steht“, dass die Anwendung der Bearbeitungsfunktion nicht nur bei einer vollständigen bitweisen Übereinstimmung des Prüf-Bilds mit dem Ziel-Bild erfolgreich verifiziert werden kann. Vielmehr kann der Vergleich des Prüf-Bildes mit dem Ziel-Bild eine vorgegebene Toleranz an Abweichungen zulassen und/oder auf der Grundlage eines Bewertungskriteriums erfolgen, das in Bezug auf die semantische Übereinstimmung des Prüf-Bildes mit dem Ziel-Bild besonders aussagekräftig ist. Beispielsweise kann eine zweidimensionale Korrelationsfunktion für den Vergleich verwendet werden. Auf diese Weise wird der Vergleich unter anderem resistent gegen Rundungseffekte und andere Artefakte. Derartige Effekte können beispielsweise auftreten, wenn das Ziel-Bild in einer ersten Hardware- und Software-Umgebung erstellt wurde und das Prüf-Bild in einer zweiten, hiervon verschiedenen Hardware- und Software-Umgebung erstellt wurde. Es kann sich auch beispielsweise zwischen der Erstellung des Ziel-Bilds und der Erstellung des Prüf-Bilds im Rahmen einer allfälligen Aktualisierung die Programmbibliothek mit der Bearbeitungsfunktion leicht geändert haben, so dass nach einem Aufruf unter der gleichen Kennung bzw. Einsprungadresse ein leicht verändertes Ergebnis erhalten wird.Here, the wording "consistent" means that the application of the processing function cannot only be successfully verified if the test image corresponds completely bit by bit to the target image. Rather, the comparison of the test image with the target image can allow a specified tolerance of deviations and/or be based on an evaluation criterion that is particularly meaningful with regard to the semantic match of the test image with the target image. For example, a two-dimensional correlation function can be used for the comparison. In this way, the comparison becomes resistant to rounding effects and other artifacts, among other things. Such effects can occur, for example, when the target image was created in a first hardware and software environment and the test image was created in a second, different hardware and software environment. For example, the program library with the editing function may have changed slightly between the creation of the target image and the creation of the test image as part of a possible update, so that a slightly different result is obtained after a call under the same identifier or entry address becomes.
Die Verfahren können ganz oder teilweise computerimplementiert und somit in einer Software verkörpert sein. Somit bezieht sich die Erfindung auch auf ein Computerprogramm mit maschinenlesbaren Anweisungen, die, wenn sie auf einem oder mehreren Computern ausgeführt werden, den oder die Computer dazu veranlassen, das Verfahren zum Erstellen einer individuellen Firmware auszuführen. In diesem Zusammenhang sind insbesondere auch Container, Compute-Instanzen und andere Ausführungsumgebungen auf einer virtualisierten Plattform, in denen maschinenlesbare Anweisungen ausgeführt werden können, als Computer anzusehen.The methods can be fully or partially computer-implemented and thus embodied in software. The invention thus also relates to a computer program with machine-readable instructions which, when executed on one or more computers, cause the computer or computers to carry out the method for creating an individual firmware. In this context, containers, compute instances and other execution environments on a virtualized platform in which machine-readable instructions can be executed are also to be regarded as computers.
Ebenso bezieht sich die Erfindung auch auf einen maschinenlesbaren Datenträger und/oder auf ein Downloadprodukt mit dem Computerprogramm. Ein Downloadprodukt ist ein über ein Datennetzwerk übertragbares, d.h. von einem Benutzer des Datennetzwerks downloadbares, digitales Produkt, das beispielsweise in einem Online-Shop zum sofortigen Download feilgeboten werden kann.The invention also relates to a machine-readable data carrier and/or a download product with the computer program. A downloadable product is a digital product that can be transmitted over a data network, i.e. can be downloaded by a user of the data network and that can be offered for sale in an online shop for immediate download, for example.
Weiterhin kann ein Computer mit dem Computerprogramm, mit dem maschinenlesbaren Datenträger bzw. mit dem Downloadprodukt ausgerüstet sein.Furthermore, a computer can be equipped with the computer program, with the machine-readable data carrier or with the downloadable product.
Figurenlistecharacter list
Nachfolgend wird der Gegenstand der Erfindung anhand von Figuren erläutert, ohne dass der Gegenstand der Erfindung hierdurch beschränkt wird. Es ist gezeigt:
-
1 : Ausführungsbeispiel desVerfahrens 100 zur Verarbeitung eines oder mehrerer Quell-Bilder 1 zu mindestens einem Ziel-Bild 3; -
2 : Beispielhafte Verarbeitung eines Quell-Bildes 1 zu mehreren Ziel-Bildern 3a-3c und zurück zu einem neuen Ziel-Bild 3' nachGewinnung von Verarbeitungsergebnissen 7, 7a-7c; -
3 : Ausführungsbeispiel desVerfahrens 200 zur Prüfung der Integrität eines Ziel-Bildes 3.
-
1 : exemplary embodiment of themethod 100 for processing one ormore source images 1 to form at least onetarget image 3; -
2 : Exemplary processing of asource image 1 into a plurality oftarget images 3a-3c and back to a new target image 3' after obtainingprocessing results 7, 7a-7c; -
3 : Exemplary embodiment of themethod 200 for checking the integrity of atarget image 3.
In Schritt 110 wird das mindestens eine Ziel-Bild 3 durch Anwenden einer vorgegebenen Bearbeitungsfunktion 2 auf das bzw. die Quell-Bilder 1 erzeugt.In
In Schritt 120 wird durch Anwenden einer vorgegebenen Hashfunktion 4 ein Hashwert 1# eines jeden Quell-Bildes 1 gebildet, das zu dem Ziel-Bild 3 beigetragen hat.In
In Schritt 130 werden aus dem Hashwert 1#, bzw. den Hashwerten, des oder der Quell-Bilder 1 sowie einer Identifikation 2a der Bearbeitungsfunktion 2 Validierungsinformationen 5 für die Herkunft des Ziel-Bildes 3 ermittelt. Die Identifikation 2a der Bearbeitungsfunktion 2 kann gemäß Block 131 insbesondere beispielsweise
- • für den
Aufruf der Bearbeitungsfunktion 2 verwendbare Angaben, und/oder - • einen Namen der Bearbeitungsfunktion 2), und/oder
- • einen Hashwert von
Programmcode der Bearbeitungsfunktion 2
- • data that can be used to call
processing function 2, and/or - • a name of the editing function 2), and/or
- • a hash value of the program code of
processing function 2
In Schritt 140 werden die Validierungsinformationen 5 in Assoziation mit dem Ziel-Bild 3 hinterlegt. Hierbei können gemäß Block 141 die Validierungsinformationen 5 mit dem Ziel-Bild 3 fusioniert werden. Zu diesem Zweck können insbesondere beispielsweise gemäß Block 141a die Validierungsinformationen 5 und das Ziel-Bild 3 durch Anwenden einer steganographischen Funktion auf ein neues Ziel-Bild 3' abgebildet werden.In
Gemäß Block 105 kann insbesondere beispielsweise ein von einer Überwachungskamera aufgenommenes Bild eines beobachteten Bereiches als Quell-Bild 1 gewählt werden. Es können dann gemäß Block 111 mehrere Ziel-Bilder 3, 3a-3c erzeugt werden, die verschiedene Ausschnitte des Quell-Bildes 1 beinhalten. Diese Ziel-Bilder 3, 3a-3c können dann in Schritt 150 über ein Netzwerk an eine oder mehrere Verarbeitungsstationen 6, 6a-6c übertragen werden, wo sie in Schritt 160 jeweils zu Verarbeitungsergebnissen 7, 7a-7c weiterverarbeitet werden. Anschließend können die Ziel-Bilder 3a-3c in Schritt 170 wiederum als Quell-Bilder 1 verwendet werden, um analog zum zuvor beschriebenen Schritt 110 hieraus ein neues Ziel-Bild 3' zu aggregieren.According to block 105, for example, an image of an observed area recorded by a surveillance camera can be selected as
Gemäß Block 106 können mehrere von verschiedenen, von einem Fahrzeug 50 mitgeführten, Kameras 51-53 aufgenommene Bilder als Quell-Bilder 1 gewählt werden. Gemäß Block 112 kann dann ein aus diesen Quell-Bildern 1 zusammengesetztes Ziel-Bild 3 erzeugt werden. Aus diesem Ziel-Bild 3 kann dann gemäß Block 161 ein Verarbeitungsergebnis 7 ausgewertet werden. Dieses Verarbeitungsergebnis 7 kann dann in Schritt 180 zu einem Ansteuersignal 8 weiterverarbeitet werden, und in Schritt 190 kann schließlich das Fahrzeug 50 mit diesem Ansteuersignal 8 angesteuert werden.According to block 106, several images recorded by different cameras 51-53 carried by a
Die Ziel-Bilder 3a-3c werden jeweils in Verarbeitungseinheiten 6, 6a-6c zu Verarbeitungsergebnissen 7, 7a-7c weiterverarbeitet, die in diesem Beispiel eine Identifikation des jeweiligen Gesichts beinhaltet. Anschließend werden die Ziel-Bilder 3a-3c als Quell-Bilder verwendet, um durch Aggregieren ein neues Ziel-Bild 3' zu bilden. Dieses neue Ziel-Bild 3' enthält nur die Gesichter, auf deren Basis die Verarbeitungsergebnisse 7, 7a-7c gebildet wurden. Wenn für dieses neue Ziel-Bild 3', wie zuvor beschrieben, wieder Validierungsinformationen 5 gebildet werden, kann hiermit bescheinigt werden, dass das Ziel-Bild 3' durch Aggregieren aus den vorherigen Ziel-Bildern 3a-3c hervorgegangen ist. Da diese vorherigen Ziel-Bilder 3a-3c wiederum mit Validierungsinformationen 5 an das ursprüngliche Quell-Bild 1 gebunden sind, ist letztendlich nachprüfbar, dass das neue Ziel-Bild 3' nur durch Ausschneiden und anschließendes Aggregieren aus dem ursprünglichen Quell-Bild 1 hervorgegangen ist.The
In Schritt 210 werden die in Assoziation mit dem Ziel-Bild 3 hinterlegten Validierungsinformationen 5 beschafft. Diese Validierungsinformationen 5 enthalten einen oder mehrere Hashwerte 1# von Quell-Bildern 1 sowie eine Identifikation 2a einer Bearbeitungsfunktion 2, mit der das Ziel-Bild 3 aus einem oder mehreren Quell-Bildern 1 erzeugt wurde.In
In Schritt 220 werden eine oder mehrere Kandidaten-Quell-Bilder 1 beschafft.In
In Schritt 230 wird durch Anwenden einer vorgegebenen Hashfunktion 4 ein Hashwert 1* eines jeden Kandidaten-Quell-Bildes 1 ermittelt.In
In Schritt 240 wird geprüft, ob alle Hashwerte 1* mit hierzu korrespondierenden Hashwerten 1# in den Validierungsinformationen 5 übereinstimmen. Ist dies der Fall (Wahrheitswert 1), wird in Schritt 250 festgestellt, dass das Ziel-Bild 3 aus dem bzw. den Kandidaten-Quell-Bildern 1 hervorgegangen ist.In
In Schritt 260 kann zusätzlich die gemäß der Identifikation 2a in den Validierungsinformationen 5 ermittelte Bearbeitungsfunktion 2 auf das oder die Kandidaten-Quell-Bilder 1 angewendet werden, so dass ein Prüf-Bild (9) entsteht. In Schritt 270 kann dann geprüft werden, ob das Prüf-Bild 9 in Einklang mit dem Ziel-Bild 3 ist. Ist dies der Fall (Wahrheitswert 1), wird in Schritt 280 festgestellt, dass das Ziel-Bild 3 aus dem Kandidaten-Quell-Bild 1, bzw. aus den Kandidaten-Quell-Bildern 1, durch Anwendung der Bearbeitungsfunktion 2 gemäß der Identifikation 2a in den Validierungsinformationen 5 hervorgegangen ist.In
BezugszeichenlisteReference List
- 11
- Quell-Bild, Kandidaten-Quell-BildSource image, candidate source image
- 1#1#
-
Hashwert des Quell-Bildes 1Hash value of the
source image 1 - 1*1*
-
Hashwert eines Kandidaten-Quell-Bildes 1Hash value of a
candidate source image 1 - 22
-
Bearbeitungsfunktion, führt von Quell-Bild 1 zu Ziel-Bild 3, 3a-3cEditing function, leads from
source image 1 to target 3, 3a-3cimage - 2a2a
-
Identifikation der Bearbeitungsfunktion 2Identification of the
processing function 2 - 3, 3a-3c3, 3a-3c
- Ziel-Bildertarget images
- 3'3'
- neues Ziel-Bildnew target image
- 44
- Hashfunktionhash function
- 55
-
Validierungsinformationen zu Ziel-Bild 3, 3a-3cTarget
3, 3a-3cimage validation information - 6, 6a-6c6, 6a-6c
-
Verarbeitungsstationen, erzeugen Verarbeitungsergebnisse 7, 7a-7cProcessing stations, produce
processing results 7, 7a-7c - 7, 7a-7c7, 7a-7c
-
Verarbeitungsergebnisse, erhalten aus Ziel-Bildern 3, 3a-3cProcessing results obtained from
3, 3a-3ctarget images - 88th
- Ansteuersignalcontrol signal
- 99
- Prüf-Bildtest image
- 5050
- Fahrzeugvehicle
- 51-5351-53
-
Kameras, mit Fahrzeug 50 mitgeführtCameras carried with
vehicle 50 - 100100
-
Verfahren zur Verarbeitung von Quell-Bildern 1Procedure for
processing source images 1 - 105105
-
Wahl eines Überwachungsbildes als Quell-Bild 1Choosing a surveillance image as the
source image 1 - 106106
-
Wahl von Quell-Bildern 1 aus mehreren Kameras 51-53Selecting
source images 1 from multiple cameras 51-53 - 110110
-
Erzeugen des Ziel-Bilds 3Creation of the
target image 3 - 111111
-
Erzeugen mehrerer Ziel-Bilder 3a-3c mit unterschiedlichen AusschnittenGeneration of
several target images 3a-3c with different sections - 112112
-
Zusammensetzen von Quell-Bildern 1 zu Ziel-Bild 3Combining
source image 1 to targetimage 3 - 120120
-
Bilden des Hashwerts 1# für jedes Quell-Bild 1Forming the
hash value 1# for eachsource image 1 - 130130
-
Ermitteln von Validierungsinformationen 5Find
validation information 5 - 131131
-
Wahl bestimmter Angaben für die Identifikation 2aChoosing certain information for
identification 2a - 140140
-
Hinterlegen der Validierungsinformationen 5Depositing the
validation information 5 - 141141
-
Hinterlegen durch Fusionieren mit dem Ziel-Bild 3Deposit by merging with the
target image 3 - 141a141a
- Fusionieren mit steganographischer FunktionFusing with steganographic function
- 150150
-
Übertragen der Ziel-Bilder 3, 3a-3c an Stationen 6, 6a-6cTransmission of the
3, 3a-3c to stations 6, 6a-6ctarget images - 160160
-
Weiterverarbeiten der Ziel-Bilder 3, 3a-3c zu Ergebnissen 7, 7a-7cFurther processing of the
3, 3a-3c totarget images results 7, 7a-7c - 161161
-
Weiterverarbeiten eines zusammengesetzten Ziel-Bildes 3Further processing of a
composite target image 3 - 170170
-
Aggregieren der Ziel-Bilder 3 zu neuem Ziel-Bild 3'Aggregating the
target images 3 into a new target image 3' - 180180
-
Weiterverarbeiten des Ergebnisses 7 zu Ansteuersignal 8Further processing of
result 7 to controlsignal 8 - 190190
-
Ansteuern des Fahrzeugs 50 mit dem Ansteuersignal 8Controlling the
vehicle 50 with thecontrol signal 8 - 200200
-
Verfahren zur Prüfung der Integrität des Ziel-Bildes 3Procedure for checking the integrity of the
target image 3 - 210210
-
Beschaffen der Validierungsinformationen 5Obtain
validation information 5 - 220220
-
Beschaffen von Kandidaten-Quell-Bildern 1Obtaining
candidate source images 1 - 230230
-
Ermitteln eines Hashwerts 1* je Kandidaten-Quell-Bild 1Determination of a
hash value 1* percandidate source image 1 - 240240
- Prüfen, ob Hashwerte 1* und 1# übereinstimmenCheck if hash values 1* and 1# match
- 250250
-
Feststellen, dass Ziel-Bild 3 aus Kandidaten-Quell-Bildern 1 kommtDetermine that
target image 3 comes fromcandidate source images 1 - 260260
-
Erzeugen des Prüf-Bildes 9 mit Bearbeitungsfunktion 2Creation of
test image 9 withediting function 2 - 270270
-
Prüfen, ob Prüf-Bild 9 in Einklang mit Ziel-Bild 3Check that
test image 9 is consistent withtarget image 3 - 280280
-
Feststellen, dass Ziel-Bild 3 mit Bearbeitungsfunktion 2 erstelltNotice that
Target Image 3 is created withEditing Tool 2
ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
Zitierte PatentliteraturPatent Literature Cited
- DE 102018126533 A1 [0004]DE 102018126533 A1 [0004]
Claims (16)
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102021111816.6A DE102021111816A1 (en) | 2021-05-06 | 2021-05-06 | Traceable image processing |
| PCT/EP2022/062123 WO2022234001A1 (en) | 2021-05-06 | 2022-05-05 | Trackable image processing |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102021111816.6A DE102021111816A1 (en) | 2021-05-06 | 2021-05-06 | Traceable image processing |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| DE102021111816A1 true DE102021111816A1 (en) | 2022-11-10 |
Family
ID=81927429
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| DE102021111816.6A Withdrawn DE102021111816A1 (en) | 2021-05-06 | 2021-05-06 | Traceable image processing |
Country Status (2)
| Country | Link |
|---|---|
| DE (1) | DE102021111816A1 (en) |
| WO (1) | WO2022234001A1 (en) |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20040146272A1 (en) | 2003-01-09 | 2004-07-29 | Kessel Kurt A. | System and method for managing video evidence |
| US8768558B2 (en) | 2007-01-05 | 2014-07-01 | Agjunction Llc | Optical tracking vehicle control system and method |
| DE102016121151A1 (en) | 2015-11-10 | 2017-06-14 | Carnegie Mellon University | Authentication between vehicles using visual contextual information |
| US20180336656A1 (en) | 2013-06-21 | 2018-11-22 | Signs & Wonders Unlimited, Llc | Method and apparatus for protecting digital photos from alteration |
| DE102018126533A1 (en) | 2018-10-24 | 2020-04-30 | Basler Ag | Authentication module for sensor data |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US5898779A (en) * | 1997-04-14 | 1999-04-27 | Eastman Kodak Company | Photograhic system with selected area image authentication |
| US20020056043A1 (en) * | 1999-01-18 | 2002-05-09 | Sensar, Inc. | Method and apparatus for securely transmitting and authenticating biometric data over a network |
-
2021
- 2021-05-06 DE DE102021111816.6A patent/DE102021111816A1/en not_active Withdrawn
-
2022
- 2022-05-05 WO PCT/EP2022/062123 patent/WO2022234001A1/en not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20040146272A1 (en) | 2003-01-09 | 2004-07-29 | Kessel Kurt A. | System and method for managing video evidence |
| US8768558B2 (en) | 2007-01-05 | 2014-07-01 | Agjunction Llc | Optical tracking vehicle control system and method |
| US20180336656A1 (en) | 2013-06-21 | 2018-11-22 | Signs & Wonders Unlimited, Llc | Method and apparatus for protecting digital photos from alteration |
| DE102016121151A1 (en) | 2015-11-10 | 2017-06-14 | Carnegie Mellon University | Authentication between vehicles using visual contextual information |
| DE102018126533A1 (en) | 2018-10-24 | 2020-04-30 | Basler Ag | Authentication module for sensor data |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2022234001A1 (en) | 2022-11-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE112017005040T5 (en) | Operating system and method based on containers | |
| DE112011104487T5 (en) | Method and system for predictive modeling | |
| DE112016005006T5 (en) | AUTOMATIC VIDEO EXECUTIVE SUMMARY | |
| DE102011055458A1 (en) | Adaptation technology for the detection of a free lane by means of reliable local model calibration | |
| DE112021005569T5 (en) | CONTRADICTORY, SEMI-SUPERVISED ONE-SHOT LEARNING | |
| DE102016204698A1 (en) | Improving the detection of steganography at the perimeter | |
| DE102019209560A1 (en) | Apparatus and method for training a neural network | |
| DE102021130642B4 (en) | EARTHQUAKE DETECTION AND RESPONSE VIA DISTRIBUTED VISUAL INPUT | |
| DE112020005732B4 (en) | GENERATING TRAINING DATA FOR OBJECT RECOGNITION | |
| DE102011055459A1 (en) | Adaptation technology for the detection of a free lane with additional classifiers | |
| DE102015208139A1 (en) | Vehicle occupant detection by means of the distance between passenger and driver characteristics | |
| DE102007010186A1 (en) | Apparatus, method and computer program for image-based tracking of surveillance objects | |
| DE112022001468T5 (en) | SELECTIVE BLACKING OF IMAGES | |
| DE112021001492T5 (en) | METHODS AND SYSTEMS FOR GRAPH DATA PROCESSING WITH HYBRID CONCLUSION | |
| DE102020215650A1 (en) | ONTOLOGY CONSCIOUS SOUND CLASSIFICATION | |
| DE112021006280T5 (en) | GENERATE DATA BASED ON PRE-TRAINED MODELS USING GENERATING COMPETING MODELS | |
| DE102019208234A1 (en) | Method and device for automatically executing a control function of a vehicle | |
| Bersaglio et al. | Grounding drones in political ecology: understanding the complexities and power relations of drone use in conservation | |
| DE102022208083A1 (en) | Training a neural network using knowledge graphs | |
| DE102020103575A1 (en) | Feature point detection apparatus and method for detecting feature points in image data | |
| DE102023102118A1 (en) | Extrapolating panoramas from images using a generative model | |
| DE102021111816A1 (en) | Traceable image processing | |
| WO2020083732A1 (en) | Authentication module for sensor data | |
| DE10145608B4 (en) | Model-based object classification and target recognition | |
| DE202017106605U1 (en) | Use of machine learning to recognize an image component in a composite image |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| R163 | Identified publications notified | ||
| R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |